Запрос к GPT модели
Этот блок позволяет отправлять запросы к классическим генеративным моделям Open AI до ChatGPT. С его помощью вы можете создавать новые тексты по запросу, выполнять разнообразные задачи классификации, суммаризации, перевода и рерайтинга текстов, написание прототипов кода на разных языках программирования, парсить полуструктурированные и неструктурированные данные, извлекать и обрабатывать факты, поддерживать диалог на разнообразные темы, и многое другое. Оплата за использование данного функционала списывается с лицевого счета клиента на платформе. Для тестовых целей каждому новому пользователю даётся возможность протестировать данный функционал без оплаты. При использовании данного функционала после окончания разработки робота необходима оплата.
Запрос |
[Текст] Введите запрос на естественном языке |
Модель |
Выберите модель для генерации текста. Модель «text—davinci-003″ предлагает наибольшее качество генерации, однако её использование наиболее дорогое и медленное. Другие модели могут предлагать более дешевые и более быстрые результаты, за счет некоторой потери качества генерации. Методом проб и ошибок подберите модель, которая лучше всего подходит для решения ваших задач. |
Свое название модели |
[Текст] Укажите свое название модели, которую поддерживает Sherpa AI Server |
Стоп-слова |
[Текст/Список] Строка или список, содержащий не более 4 строк, которые остановят дальнейшую генерацию. Возвращаемый текст не будет содержать эти слова |
Температура |
[Число] Десятичное дробное число от 0 до 1, показывающее степень «случайности» или «креативности» результата, где 0 — наименее креативный результат, а 1 — максимально случайный. Для большинства творческих задач лучше подходит значение 0.7, а если вы хотите на один и тот же запрос каждый раз получать одинаковый ответ — установите значение 0. |
Максимальная длина |
[Число] Максимальная длина результата, выраженная в условных токенах. Для английского языка 1 токен — это 4 символа, для большинства других языков 1 токен — это 1 символ. Уменьшите это число, если хотите получать в среднем более короткие запросы, увеличьте для получения более длинных запросов. Учтите, что данное число ограничивает длину ответа, однако не обязательно полученный ответ будет указанной вами длины — в зависимости от содержимого запроса он может быть короче. |
Автоограничение длины |
При включении указанная максимальная длина длина будет автоматически скорректирована. Для этого вычисляется количество токенов в запросе и учитывается максимально возможное количество токенов для выбранной модели |
Таймаут |
[Число] Максимальное время ожидания ответа в секундах. Реальное время ожидания зависит от выбранной модели, длины вашего запроса и прогнозируемой длины ответа, а также от текущей загруженности серверов. В случае превышения установленного предела ожидания возникает ошибка. |
Ответ |
[Текст] Ответ генеративной модели на запрос |
Итоговая длина |
[Число] Итоговая длина запроса и результата (объединенных вместе), выраженная в условных токенах |
Уровень обработки |
Выбор уровня обработки ошибок. Возможные значения: «Default» — по умолчанию; «Ignore» — ошибки игнорируются; «Handle» — ошибки обрабатываются. Если выбрано значение «Default«, то будет использоваться значение блока «Старт» данной диаграммы |
Уровень сообщений |
Выбор уровня сообщений, которые будут выводить блоки при работе. Возможные значения: «Default» — по умолчанию; «Release» — вывод отключен; «Debug» — вывод основной информации; «Detailed» — вывод подробной информации. Если выбрано значение «Default«, то будет использоваться значение блока «Старт» данной диаграммы |
Текст ошибки |
[Текст] Возвращает подробную информацию об ошибке в случае некорректного выполнения работы блока |