Чат
Получая историю сообщений, дополняет диалог от лица ассистента
Объект chat.completion
chat.completionПредставляет ответ дополнения чата, возвращаемый моделью на основе предоставленных входных данных.
id string Уникальный идентификатор объекта.
choices array
Список вариантов дополнения чата. Может быть больше одного, если n больше 1.
created integer Unix timestamp (секунды) момента времени когда дополнение было создано
model string Модель которая использовалась для генерации дополнения чата.
object string
Тип объекта, который всегда chat.completion.
usage object Статистика использованных токенов и энергии при генерации
Объект chat.completion.chunk
chat.completion.chunkПредставляет ответ дополнения чата, возвращаемый моделью на основе предоставленных входных данных при использовании stream: true.
id string Уникальный идентификатор дополнения. Каждый чанк имеет одинаковый id.
choices array
Список вариантов дополнения чата. Может быть больше одного, если n больше 1.
created integer Unix timestamp (секунды) момента времени когда дополнение было создано. Каждый чанк имеет одинаковое время.
model string Модель которая использовалась для генерации дополнения чата.
object string
Тип объекта, который всегда chat.completion.chunk.
Дополнение чата
POST https://api.mashagpt.ru/v1/chat/completions
Модель создает ответа для данного разговора в чате.
Request Body
messages*
Array
Список сообщений в беседе. Необходимо предоставлять полную историю сообщений.
messages[].content*
String | null
Содержание сообщения. content требуется для всех сообщений и может быть null для сообщений ассистента с вызовом функции.
messages[].function_call
Object
Имя и аргументы функции которая должная быть вызвана по мнению модели
messages[].function_call.name*
String
Имя функции которую следует вызвать
messages[].function_call.arguments*
String
Аргументы для вызова функции, сгенерированные моделью в формате JSON. Обратите внимание, что модель не всегда генерирует действительный JSON и может выдавать параметры, не определенные схемой вашей функции. Проверьте аргументы в своем коде перед вызовом функции.
messages[].name
String
Имя автора этого сообщения. name требуется, если role: function, и это должно быть имя функции, ответ которой находится в содержимом. Может содержать буквы A–Z, A–Z, 0–9 и символы подчеркивания, максимальная длина — 64 символа.
messages[].role
String
Роль автора сообщения. Может быть: system, assistant, user, function
model*
String
Идентификатор модели, которую нужно использовать. Подробную информацию о том, какие модели работают с Chat API, см. в таблице совместимости.
frequency_penalty
Number | null
Число от -2,0 до 2,0. Положительные значения штрафуют новые токены на основе их частоты в тексте, уменьшая вероятность повторения модели дословно одной и той же строки.
function_call
String | Object
Управляет тем, как модель вызывает функции. "none" означает, что модель не будет вызывать функцию, а вместо этого генерирует сообщение. "auto" означает, что модель может выбирать между генерацией сообщения или вызовом функции. Указание конкретной функции через {"name": "my_function"} заставляет модель вызывать эту функцию. "none" — значение по умолчанию, когда функции отсутствуют. "auto" — значение по умолчанию, если присутствуют функции.
functions
Array
Список функций которые модель может вызвать.
functions[].description
String
Описание функции которое используется моделью для определения подходящей функции для вызова.
functions[].name*
String
Имя вызываемой функции. Должны быть от A до Z, от A до Z, от 0 до 9 или содержать символы подчеркивания и тире, максимальная длина — 64.
functions[].parameters*
Object
Параметры, принимаемые функциями, описываемые как объект схемы JSON. Документацию по формату см. в справочнике по схеме JSON.
Чтобы описать функцию, которая не принимает никаких параметров, укажите значение {"type": "object", "properties": {}}.
logit_bias
Map
Измените вероятность появления указанных токенов в завершении.
Принимает объект json, который сопоставляет токены (указанные их идентификатором в токенизаторе) со связанным значением смещения от -100 до 100. Математически смещение добавляется к логитам, сгенерированным моделью перед выборкой. Точный эффект будет варьироваться в зависимости от модели, но значения от -1 до 1 должны уменьшать или увеличивать вероятность выбора; значения типа -100 или 100 должны привести к запрету или эксклюзивному выбору соответствующего токена.
max_tokens
Integer | null
Максимальное количество токенов, которые можно сгенерировать при дополнении чата.
Общая длина входных токенов и сгенерированных токенов ограничена длиной контекста модели.
n
Integer | null
Количество вариантов дополнения чата которые сгенерирует модель
presence_penalty
Number | null
Число от -2,0 до 2,0. Положительные значения штрафует новые токены в зависимости от частоты их появления в тексте, что увеличивает вероятность того, что модель будет говорить о новых темах.
stop
String | Array | null
До 4 последовательностей, при которых API перестанет генерировать дальнейшие токены.
stream
Boolean | null
Если установлено, будут отправляться частичные дельты сообщений, как в ChatGPT. Токены будут отправляться как server-sent events, по мере их доступности, а поток завершается сообщением data: [DONE].
temperature
Number | null
Какую температуру выборки использовать: от 0 до 2. Более высокие значения, например 0,8, сделают выходные данные более случайными, а более низкие значения, например 0,2, сделают их более детерминированными.
В общем случае мы рекомендуем использовать этот параметр или top_p, но не оба сразу.
top_p
Number | null
Альтернатива выборке с учетом температуры, называемая nucleus sampling, где модель учитывает результаты токенов с вероятностной массой top_p. Таким образом, 0,1 означает, что учитываются только токены, составляющие 10% верхней массы вероятности.
В общем случае мы рекомендуем использовать этот параметр или temperature, но не оба сразу.
user
String
Уникальный идентификатор пользователя
Возвращает объект chat.completion или серию объектов chat.completion.chunk в формате server-sent events если выбрана опция stream: true.
Last updated