MY.CELIUM.HUB
Вернуться к открытиям
InternLM

InternVL2.5 26B

InternVL2.5-26B
InternVL2.5-26B — это мощная визуально-языковая модель, поддерживающая многомодальную обработку изображений и текста, способная точно распознавать содержимое изображений и генерировать соответствующие описания или ответы.
32K

Поставщики, поддерживающие эту модель

InternLM
GiteeAIGiteeAI
InternLMInternVL2.5-26B
Максимальная длина контекста
32K
Максимальная длина вывода
--
Цена ввода
--
Цена вывода
--

Параметры модели

Случайность
temperature

Эта настройка влияет на разнообразие ответов модели. Более низкие значения приводят к более предсказуемым и типичным ответам, в то время как более высокие значения поощряют более разнообразные и необычные ответы. Когда значение установлено на 0, модель всегда дает один и тот же ответ на данный ввод. Посмотреть документацию

Тип
FLOAT
Значение по умолчанию
1.00
Диапазон
0.00 ~ 2.00
Ядерная выборка
top_p

Эта настройка ограничивает выбор модели до определенного процента наиболее вероятных слов: выбираются только те слова, которые достигают накопленной вероятности P. Более низкие значения делают ответы модели более предсказуемыми, в то время как значение по умолчанию позволяет модели выбирать из всего диапазона слов. Посмотреть документацию

Тип
FLOAT
Значение по умолчанию
1.00
Диапазон
0.00 ~ 1.00
Свежесть темы
presence_penalty

Эта настройка предназначена для контроля повторного использования слов в зависимости от их частоты появления во входных данных. Она пытается реже использовать те слова, которые встречаются чаще, пропорционально их частоте. Штраф за слова увеличивается с увеличением частоты появления. Отрицательные значения будут поощрять повторное использование слов. Посмотреть документацию

Тип
FLOAT
Значение по умолчанию
0.00
Диапазон
-2.00 ~ 2.00
Штраф за частоту
frequency_penalty

Эта настройка регулирует частоту повторного использования определенных слов, уже появившихся во входных данных. Более высокие значения снижают вероятность такого повторения, в то время как отрицательные значения имеют противоположный эффект. Штраф за слова не увеличивается с увеличением частоты появления. Отрицательные значения будут поощрять повторное использование слов. Посмотреть документацию

Тип
FLOAT
Значение по умолчанию
0.00
Диапазон
-2.00 ~ 2.00
Ограничение на один ответ
max_tokens

Эта настройка определяет максимальную длину, которую модель может сгенерировать за один ответ. Установка более высокого значения позволяет модели генерировать более длинные ответы, в то время как более низкое значение ограничивает длину ответа, делая его более кратким. В зависимости от различных сценариев использования разумная настройка этого значения может помочь достичь ожидаемой длины и степени детализации ответа. Посмотреть документацию

Тип
INT
Значение по умолчанию
--
Интенсивность размышлений
reasoning_effort

Эта настройка используется для управления интенсивностью размышлений модели перед генерацией ответа. Низкая интенсивность приоритизирует скорость ответа и экономит токены, высокая интенсивность обеспечивает более полное размышление, но потребляет больше токенов и снижает скорость ответа. Значение по умолчанию - среднее, что обеспечивает баланс между точностью размышлений и скоростью ответа. Посмотреть документацию

Тип
STRING
Значение по умолчанию
--
Диапазон
low ~ high

Связанные модели

Qwen

Qwen2.5 72B Instruct

Qwen2.5-72B-Instruct
Qwen2.5-72B-Instruct поддерживает контекст до 16k, генерируя длинные тексты более 8K. Поддерживает вызовы функций и бесшовное взаимодействие с внешними системами, что значительно повышает гибкость и масштабируемость. Знания модели значительно увеличены, а способности в кодировании и математике значительно улучшены, поддерживает более 29 языков.
16K
Qwen

Qwen2.5 32B Instruct

Qwen2.5-32B-Instruct
Qwen2.5-32B-Instruct — это языковая модель с 32 миллиардами параметров, с сбалансированными показателями производительности, оптимизированная для китайского и многоязычного контекста, поддерживает интеллектуальные ответы, генерацию контента и другие приложения.
32K
Qwen

Qwen2.5 14B Instruct

Qwen2.5-14B-Instruct
Qwen2.5-14B-Instruct — это языковая модель с 14 миллиардами параметров, с отличными показателями производительности, оптимизированная для китайского и многоязычного контекста, поддерживает интеллектуальные ответы, генерацию контента и другие приложения.
24K
Qwen

Qwen2.5 7B Instruct

Qwen2.5-7B-Instruct
Qwen2.5-7B-Instruct — это языковая модель с 7 миллиардами параметров, поддерживающая вызовы функций и бесшовное взаимодействие с внешними системами, что значительно повышает гибкость и масштабируемость. Оптимизирована для китайского и многоязычного контекста, поддерживает интеллектуальные ответы, генерацию контента и другие приложения.
32K
Qwen

Qwen2 72B Instruct

Qwen2-72B-Instruct
Qwen2 — это последняя серия моделей Qwen, поддерживающая контекст до 128k. По сравнению с текущими лучшими открытыми моделями, Qwen2-72B значительно превосходит ведущие модели по многим аспектам, включая понимание естественного языка, знания, код, математику и многоязычность.
32K