Чат

Получая историю сообщений, дополняет диалог от лица ассистента

Объект chat.completion

Представляет ответ дополнения чата, возвращаемый моделью на основе предоставленных входных данных.


id string Уникальный идентификатор объекта.


choices array Список вариантов дополнения чата. Может быть больше одного, если n больше 1.

Параметры

finish_reason string Причина, по которой модель перестала генерировать токены. Это будет stop, если модель достигнет естественной точки остановки или предоставленной последовательности остановки, length, если достигнуто максимальное количество токенов, указанное в запросе, content_filter, если контент был пропущен из-за флага наших фильтров контента, или function_call, если модель вызвала функцию.


index integer Индекс варианта в списке вариантов. (Не обязательно совпадает с индексом в массиве choices)


message object

  • content string | null Содержание сообщения

  • function_call object Имя и аргументы функции которая должная быть вызвана по мнению модели

    • name string Имя функции которую следует вызвать

    • arguments string Аргументы для вызова функции, сгенерированные моделью в формате JSON. Обратите внимание, что модель не всегда генерирует действительный JSON и может выдавать параметры, не определенные схемой вашей функции. Проверьте аргументы в своем коде перед вызовом функции.

  • role string Роль автора сообщения. Может быть: system, assistant, user, function


created integer Unix timestamp (секунды) момента времени когда дополнение было создано


model string Модель которая использовалась для генерации дополнения чата.


object string Тип объекта, который всегда chat.completion.


usage object Статистика использованных токенов и энергии при генерации

Параметры

completion_tokens integer Количество токенов в ответе модели


prompt_tokens integer Количество токенов на входе (включая functions)


total_tokens integer Общее количество токенов использованных в запросе (prompt + completion)


completion_energy integer Количество энергии затраченной на генерацию ответа


prompt_energy integer Количество энергии затраченной на обработку ввода


total_energy integer Общее количество энергии затраченной на запрос



Объект chat.completion.chunk

Представляет ответ дополнения чата, возвращаемый моделью на основе предоставленных входных данных при использовании stream: true.


id string Уникальный идентификатор дополнения. Каждый чанк имеет одинаковый id.


choices array Список вариантов дополнения чата. Может быть больше одного, если n больше 1.

Параметры

finish_reason string Причина, по которой модель перестала генерировать токены. Это будет stop, если модель достигнет естественной точки остановки или предоставленной последовательности остановки, length, если достигнуто максимальное количество токенов, указанное в запросе, content_filter, если контент был пропущен из-за флага наших фильтров контента, или function_call, если модель вызвала функцию.


index integer Индекс варианта в списке вариантов. (Не обязательно совпадает с индексом в массиве choices)


delta object

  • content string | null Содержание чанка (часть итогового сообщения)

  • function_call object Имя и аргументы функции которая должная быть вызвана по мнению модели Следует иметь ввиду что в одном чанке может содержаться только часть имени или аргументов фукнции. Для того чтобы получить полностью имя функции и её аргументы - необходимо сложить все полученные куски.

    • name string Имя функции которую следует вызвать

    • arguments string Аргументы для вызова функции, сгенерированные моделью в формате JSON. Обратите внимание, что модель не всегда генерирует действительный JSON и может выдавать параметры, не определенные схемой вашей функции. Проверьте аргументы в своем коде перед вызовом функции.

  • role string Роль автора сообщения. Может быть: system, assistant, user, function


created integer Unix timestamp (секунды) момента времени когда дополнение было создано. Каждый чанк имеет одинаковое время.


model string Модель которая использовалась для генерации дополнения чата.


object string Тип объекта, который всегда chat.completion.chunk.



Дополнение чата

POST https://api.mashagpt.ru/v1/chat/completions

Модель создает ответа для данного разговора в чате.

Request Body

Name
Type
Description

messages*

Array

Список сообщений в беседе. Необходимо предоставлять полную историю сообщений.

messages[].content*

String | null

Содержание сообщения. content требуется для всех сообщений и может быть null для сообщений ассистента с вызовом функции.

messages[].function_call

Object

Имя и аргументы функции которая должная быть вызвана по мнению модели

messages[].function_call.name*

String

Имя функции которую следует вызвать

messages[].function_call.arguments*

String

Аргументы для вызова функции, сгенерированные моделью в формате JSON. Обратите внимание, что модель не всегда генерирует действительный JSON и может выдавать параметры, не определенные схемой вашей функции. Проверьте аргументы в своем коде перед вызовом функции.

messages[].name

String

Имя автора этого сообщения. name требуется, если role: function, и это должно быть имя функции, ответ которой находится в содержимом. Может содержать буквы A–Z, A–Z, 0–9 и символы подчеркивания, максимальная длина — 64 символа.

messages[].role

String

Роль автора сообщения. Может быть: system, assistant, user, function

model*

String

Идентификатор модели, которую нужно использовать. Подробную информацию о том, какие модели работают с Chat API, см. в таблице совместимости.

frequency_penalty

Number | null

Число от -2,0 до 2,0. Положительные значения штрафуют новые токены на основе их частоты в тексте, уменьшая вероятность повторения модели дословно одной и той же строки.

function_call

String | Object

Управляет тем, как модель вызывает функции. "none" означает, что модель не будет вызывать функцию, а вместо этого генерирует сообщение. "auto" означает, что модель может выбирать между генерацией сообщения или вызовом функции. Указание конкретной функции через {"name": "my_function"} заставляет модель вызывать эту функцию. "none" — значение по умолчанию, когда функции отсутствуют. "auto" — значение по умолчанию, если присутствуют функции.

functions

Array

Список функций которые модель может вызвать.

functions[].description

String

Описание функции которое используется моделью для определения подходящей функции для вызова.

functions[].name*

String

Имя вызываемой функции. Должны быть от A до Z, от A до Z, от 0 до 9 или содержать символы подчеркивания и тире, максимальная длина — 64.

functions[].parameters*

Object

Параметры, принимаемые функциями, описываемые как объект схемы JSON. Документацию по формату см. в справочнике по схеме JSON.

Чтобы описать функцию, которая не принимает никаких параметров, укажите значение {"type": "object", "properties": {}}.

logit_bias

Map

Измените вероятность появления указанных токенов в завершении.

Принимает объект json, который сопоставляет токены (указанные их идентификатором в токенизаторе) со связанным значением смещения от -100 до 100. Математически смещение добавляется к логитам, сгенерированным моделью перед выборкой. Точный эффект будет варьироваться в зависимости от модели, но значения от -1 до 1 должны уменьшать или увеличивать вероятность выбора; значения типа -100 или 100 должны привести к запрету или эксклюзивному выбору соответствующего токена.

max_tokens

Integer | null

Максимальное количество токенов, которые можно сгенерировать при дополнении чата.

Общая длина входных токенов и сгенерированных токенов ограничена длиной контекста модели.

n

Integer | null

Количество вариантов дополнения чата которые сгенерирует модель

presence_penalty

Number | null

Число от -2,0 до 2,0. Положительные значения штрафует новые токены в зависимости от частоты их появления в тексте, что увеличивает вероятность того, что модель будет говорить о новых темах.

stop

String | Array | null

До 4 последовательностей, при которых API перестанет генерировать дальнейшие токены.

stream

Boolean | null

Если установлено, будут отправляться частичные дельты сообщений, как в ChatGPT. Токены будут отправляться как server-sent events, по мере их доступности, а поток завершается сообщением data: [DONE].

temperature

Number | null

Какую температуру выборки использовать: от 0 до 2. Более высокие значения, например 0,8, сделают выходные данные более случайными, а более низкие значения, например 0,2, сделают их более детерминированными.

В общем случае мы рекомендуем использовать этот параметр или top_p, но не оба сразу.

top_p

Number | null

Альтернатива выборке с учетом температуры, называемая nucleus sampling, где модель учитывает результаты токенов с вероятностной массой top_p. Таким образом, 0,1 означает, что учитываются только токены, составляющие 10% верхней массы вероятности.

В общем случае мы рекомендуем использовать этот параметр или temperature, но не оба сразу.

user

String

Уникальный идентификатор пользователя

Возвращает объект chat.completion или серию объектов chat.completion.chunk в формате server-sent events если выбрана опция stream: true.

Last updated