Запрос к GPT модели

Этот блок позволяет отправлять запросы к классическим генеративным моделям Open AI до ChatGPT. С его помощью вы можете создавать новые тексты по запросу, выполнять разнообразные задачи классификации, суммаризации, перевода и рерайтинга текстов, написание прототипов кода на разных языках программирования, парсить полуструктурированные и неструктурированные данные, извлекать и обрабатывать факты, поддерживать диалог на разнообразные темы, и многое другое. Оплата за использование данного функционала списывается с лицевого счета клиента на платформе. Для тестовых целей каждому новому пользователю даётся возможность протестировать данный функционал без оплаты. При использовании данного функционала после окончания разработки робота необходима оплата.

Запрос

[Текст] Введите запрос на естественном языке

Модель

Выберите модель для генерации текста. Модель «textdavinci-003″ предлагает наибольшее качество генерации, однако её использование наиболее дорогое и медленное. Другие модели могут предлагать более дешевые и более быстрые результаты, за счет некоторой потери качества генерации. Методом проб и ошибок подберите модель, которая лучше всего подходит для решения ваших задач.

Свое название модели

[Текст] Укажите свое название модели, которую поддерживает Sherpa AI Server

Стоп-слова

[Текст/Список] Строка или список, содержащий не более 4 строк, которые остановят дальнейшую генерацию. Возвращаемый текст не будет содержать эти слова

Температура

[Число] Десятичное дробное число от 0 до 1, показывающее степень «случайности» или «креативности» результата, где 0 — наименее креативный результат, а 1 — максимально случайный. Для большинства творческих задач лучше подходит значение 0.7, а если вы хотите на один и тот же запрос каждый раз получать одинаковый ответ — установите значение 0.

Максимальная длина

[Число] Максимальная длина результата, выраженная в условных токенах. Для английского языка 1 токен — это 4 символа, для большинства других языков 1 токен — это 1 символ. Уменьшите это число, если хотите получать в среднем более короткие запросы, увеличьте для получения более длинных запросов. Учтите, что данное число ограничивает длину ответа, однако не обязательно полученный ответ будет указанной вами длины — в зависимости от содержимого запроса он может быть короче.

Автоограничение длины

При включении указанная максимальная длина длина будет автоматически скорректирована. Для этого вычисляется количество токенов в запросе и учитывается максимально возможное количество токенов для выбранной модели

Таймаут

[Число] Максимальное время ожидания ответа в секундах. Реальное время ожидания зависит от выбранной модели, длины вашего запроса и прогнозируемой длины ответа, а также от текущей загруженности серверов. В случае превышения установленного предела ожидания возникает ошибка.

Ответ

[Текст] Ответ генеративной модели на запрос

Итоговая длина

[Число] Итоговая длина запроса и результата (объединенных вместе), выраженная в условных токенах

Уровень обработки

Выбор уровня обработки ошибок. Возможные значения: «Default» — по умолчанию; «Ignore» — ошибки игнорируются; «Handle» — ошибки обрабатываются. Если выбрано значение «Default«, то будет использоваться значение блока «Старт» данной диаграммы

Уровень сообщений

Выбор уровня сообщений, которые будут выводить блоки при работе. Возможные значения: «Default» — по умолчанию; «Release» — вывод отключен; «Debug» — вывод основной информации; «Detailed» — вывод подробной информации. Если выбрано значение «Default«, то будет использоваться значение блока «Старт» данной диаграммы

Текст ошибки

[Текст] Возвращает подробную информацию об ошибке в случае некорректного выполнения работы блока