Writer
  1. LLM
Writer
  • 内容
    • 根据预设的样式指南检查您的内容
      POST
    • 将样式指南建议直接应用于您的内容
      POST
    • 检测内容是否是人工智能生成的
      POST
  • 术语
    • 查找术语
      GET
    • 更新条款
      PUT
    • 添加条款
      POST
    • 删除条款
      DELETE
  • 片段
    • 查找片段
      GET
    • 更新片段
      PUT
    • 删除片段
      DELETE
  • 作家应用程序/模板
    • 获取自定义应用程序/模板的输入
      GET
    • 使用预定义的应用程序/模板生成内容
      POST
  • 计费
    • 获取您的组织订阅详细信息
  • 用户
    • 列出用户
  • 风格指南
    • 列出您的样式指南页面
    • 页面详情
  • LLM
    • 列出可用的 LLM 模型
      GET
    • 为 LLM 模型创建完成
      POST
    • 使用 SSE 流为 LLM 模型创建补全
      POST
    • 使用经过训练的提示标记获取自定义模型文件
      GET
    • 列出文件
      GET
    • 上传文件
      GET
    • 获取文件
      GET
    • 删除文件
      DELETE
    • 列出模型定制
      GET
    • 创建模型定制
      POST
    • 获取模型定制
      GET
    • 删除模型定制
      DELETE
    • 创建LLM定制模型的完成
      POST
  1. LLM

为 LLM 模型创建完成

开发环境
http://dev-cn.your-api-server.com
开发环境
http://dev-cn.your-api-server.com
POST
https://enterprise-api.writer.com/llm/organization/{organizationId}/model/{modelId}/completions
语言模型 (LLM) 的补全端点是一项专门功能,有助于生成连贯且上下文相关的文本补全。该端点旨在通过提供定制的上下文感知文本生成来增强各种应用程序和服务。
它的作用:
补全端点使用户能够请求语言模型生成文本补全,其范围可以从简短的建议或句子片段到整个段落或文档。它利用法学硕士的力量来创建无缝遵循给定输入的内容,提供连贯且与上下文相关的响应。
它的用途:
该端点在广泛的应用程序中具有多种用途。它可用于内容创建、聊天机器人、虚拟助理、代码生成、语言翻译、内容摘要等等。从本质上讲,它使开发人员和企业能够将自然语言生成集成到他们的产品和服务中,使它们更具交互性和用户友好性。
为什么有人会使用它:
使用完成端点可以简化并丰富用户体验。开发人员和企业可以利用它构建智能聊天机器人来实时提供有用的响应,从而改善客户支持。内容创建者可以加快他们的写作过程并为文章或故事生成建议。它对于编码也很有价值,因为它可以帮助自动化软件开发任务。最终,对于任何希望增强应用程序中的文本生成、提供更高效率、个性化和交互性的人来说,该端点都是一个有价值的工具。
注意:
当使用 palmyra-x 作为 modelId 时,字段 maxTokens 应作为必填字段包含在内。
请求示例请求示例
Shell
JavaScript
Java
Swift
curl --location --request POST 'https://enterprise-api.writer.com/llm/organization//model//completions' \
--header 'content-type: application/json' \
--data-raw ''
响应示例响应示例
200 - 成功示例
{
  "choices": [
    {
      "text": "string",
      "logprobs": {
        "tokens": [
          "string"
        ],
        "tokenLogprobs": [
          0
        ],
        "topLogprobs": [
          {
            "additionalProp": "string"
          }
        ],
        "textOffset": [
          0
        ]
      }
    }
  ]
}

请求参数

Path 参数
organizationId
string 
必需
modelId
string 
必需
Header 参数
content-type
string 
必需
示例值:
application/json

返回响应

🟢200成功
application/json
Body
choices
array [object {2}] 
必需
text
string 
可选
logprobs
object 
可选
🟠400请求有误
🟠401没有权限
🟠403禁止访问
🟠404记录不存在
🔴500服务器错误
修改于 2024-02-01 07:36:43
上一页
列出可用的 LLM 模型
下一页
使用 SSE 流为 LLM 模型创建补全
Built with