MY.CELIUM.HUB
Вернуться к открытиям
Yi

Yi-Large

accounts/yi-01-ai/models/yi-large
Модель Yi-Large, обладающая выдающимися возможностями обработки нескольких языков, подходит для различных задач генерации и понимания языка.
32K

Поставщики, поддерживающие эту модель

Yi
FireworksFireworks
Yiaccounts/yi-01-ai/models/yi-large
Максимальная длина контекста
32K
Максимальная длина вывода
--
Цена ввода
$3.00
Цена вывода
$3.00

Параметры модели

Случайность
temperature

Эта настройка влияет на разнообразие ответов модели. Более низкие значения приводят к более предсказуемым и типичным ответам, в то время как более высокие значения поощряют более разнообразные и необычные ответы. Когда значение установлено на 0, модель всегда дает один и тот же ответ на данный ввод. Посмотреть документацию

Тип
FLOAT
Значение по умолчанию
1.00
Диапазон
0.00 ~ 2.00
Ядерная выборка
top_p

Эта настройка ограничивает выбор модели до определенного процента наиболее вероятных слов: выбираются только те слова, которые достигают накопленной вероятности P. Более низкие значения делают ответы модели более предсказуемыми, в то время как значение по умолчанию позволяет модели выбирать из всего диапазона слов. Посмотреть документацию

Тип
FLOAT
Значение по умолчанию
1.00
Диапазон
0.00 ~ 1.00
Свежесть темы
presence_penalty

Эта настройка предназначена для контроля повторного использования слов в зависимости от их частоты появления во входных данных. Она пытается реже использовать те слова, которые встречаются чаще, пропорционально их частоте. Штраф за слова увеличивается с увеличением частоты появления. Отрицательные значения будут поощрять повторное использование слов. Посмотреть документацию

Тип
FLOAT
Значение по умолчанию
0.00
Диапазон
-2.00 ~ 2.00
Штраф за частоту
frequency_penalty

Эта настройка регулирует частоту повторного использования определенных слов, уже появившихся во входных данных. Более высокие значения снижают вероятность такого повторения, в то время как отрицательные значения имеют противоположный эффект. Штраф за слова не увеличивается с увеличением частоты появления. Отрицательные значения будут поощрять повторное использование слов. Посмотреть документацию

Тип
FLOAT
Значение по умолчанию
0.00
Диапазон
-2.00 ~ 2.00
Ограничение на один ответ
max_tokens

Эта настройка определяет максимальную длину, которую модель может сгенерировать за один ответ. Установка более высокого значения позволяет модели генерировать более длинные ответы, в то время как более низкое значение ограничивает длину ответа, делая его более кратким. В зависимости от различных сценариев использования разумная настройка этого значения может помочь достичь ожидаемой длины и степени детализации ответа. Посмотреть документацию

Тип
INT
Значение по умолчанию
--
Интенсивность размышлений
reasoning_effort

Эта настройка используется для управления интенсивностью размышлений модели перед генерацией ответа. Низкая интенсивность приоритизирует скорость ответа и экономит токены, высокая интенсивность обеспечивает более полное размышление, но потребляет больше токенов и снижает скорость ответа. Значение по умолчанию - среднее, что обеспечивает баланс между точностью размышлений и скоростью ответа. Посмотреть документацию

Тип
STRING
Значение по умолчанию
--
Диапазон
low ~ high

Связанные модели

Meta

Llama 3.3 70B Instruct

accounts/fireworks/models/llama-v3p3-70b-instruct
Llama 3.3 70B Instruct — это обновленная версия Llama 3.1 70B от декабря. Эта модель улучшена на основе Llama 3.1 70B (выпущенной в июле 2024 года), с усиленной поддержкой вызовов инструментов, многоязычного текста, математических и программных возможностей. Модель достигла ведущих в отрасли показателей в области вывода, математики и соблюдения инструкций, обеспечивая производительность, сопоставимую с 3.1 405B, при этом обладая значительными преимуществами по скорости и стоимости.
128K
Meta

Llama 3.2 3B Instruct

accounts/fireworks/models/llama-v3p2-3b-instruct
Модель Llama 3.2 3B для инструкций - это компактная многоязычная модель, запущенная Meta. Эта модель предназначена для повышения эффективности и обеспечивает значительное улучшение в задержке и стоимости по сравнению с более крупными моделями. Примеры использования модели включают запросы, переоформление подсказок и помощь в написании.
128K
Meta

Llama 3.2 11B Vision Instruct

accounts/fireworks/models/llama-v3p2-11b-vision-instruct
Модель Meta с 11B параметрами, оптимизированная для вывода изображений. Эта модель предназначена для визуального распознавания, вывода изображений, описания изображений и ответа на общие вопросы о изображениях. Эта модель способна понимать визуальные данные, такие как графики и диаграммы, и преодолевать разрыв между визуальным и языковым пониманием, генерируя текстовые описания деталей изображений.
128K
Meta

Llama 3.2 90B Vision Instruct

accounts/fireworks/models/llama-v3p2-90b-vision-instruct
Модель Meta с 90B параметрами, оптимизированная для вывода изображений. Эта модель предназначена для визуального распознавания, вывода изображений, описания изображений и ответа на общие вопросы о изображениях. Эта модель способна понимать визуальные данные, такие как графики и диаграммы, и преодолевать разрыв между визуальным и языковым пониманием, генерируя текстовые описания деталей изображений.
128K
Meta

Llama 3.1 8B Instruct

accounts/fireworks/models/llama-v3p1-8b-instruct
Модель Llama 3.1 8B для команд, оптимизированная для многоязычных диалогов, способная превосходить большинство открытых и закрытых моделей по общим отраслевым стандартам.
128K