19 марта, 7 новых vision-моделей – т.е. моделей для запросов по изображениям. Flash 2.0, Sonnet 3.7 в vision-вариантах, Mistral 24B, Gemma 27B, Qwen 2.5 72B, Qwen VL Plus, Qwen VL Max.
10 марта – 4 research модели поверх Sonnet 3.7 – Online High Quality, Deep Online, Research, Deep Research для формирования полноценных исследований на 8–9 страниц A4! Подробнее о Research-моделях + примеры
28 февраля, GPT-4.5 Preview от OpenAI уже доступна!
26 февраля, Sonnet 3.7 c размышлениями доступна! Поддерживается 3 варианта модели, предлагающие разный бюджет на размышления: low, medium (по умолчанию), high. Модели полностью совместимы с обычным OpenAI API, доработок не требуется.
25 февраля, новая Sonnet 3.7 – новая Sonnet 3.7 уже доступна на сервисе!
14 февраля, версии модели OpenAI: o3-mini – o3-mini-high с предустановленным пресетом глубоких размышлений, и o3-mini-online с возможностью поиска в Интернете.
5 февраля, Google Gemini Flash 2.0 – новая модель от Google!
1 февраля, o3-mini от OpenAI уже доступна! (Также модель o1 возвращена на сервис после долгого отключения)
1 февраля, Qwen Turbo, Plus, Max – доступны свежие модели от Alibaba group! Max по метрикам превосходят другие модели, включая западные (кроме рассуждающих)
29 января, Deepseek R1 от Perplexity – R1 с онлайн-поиском информации!
28 января, альтернативные провайдеры для Deepseek R1 и V3 – поскольку оригинальный DeepSeek сейчас находится под нагрузкой.
25 января, серия online-моделей – теперь целый ряд моделей могут отвечать с учетом интернет-поиска, т.е. текущих данных. Доступны в онлайн-варианте: GPT-4o-mini, GPT-4o, Sonnet/Haiku 3.5, Google Pro 1.5, Llama 3.3, EVA Qwen 72B.
20 января, подключена Deepseek R1 – топовая рассуждающая модель от Deepseek, по метрикам сравнимая с o1, но по цене дешевле, чем o1-mini; она также быстрее o1 и o1-mini.
8 января, Kling Standart 1.6, Kling Pro V1.6 – топовые модели для генерации видео от Kling.
Нейросети от мирового лидера, OpenAI. Если вы только погружаетесь в тему текстовых нейросетей – оптимально выбрать ChatGPT (gpt-3.5-turbo) в качестве основного варианта. Если вам нужна бОльшая точность в рассуждениях – выберите GPT-4. GPT-4-Turbo обладает контекстом в 128 000 символов и подходит в том числе для обработки больших файлов – но она в меру дорогая.
Внимание: для новых пользователей включена автоматическая оптимизация запросов при выборе сетeй OpenAI – выбирается самая эффективная и дешевая в своем классе. Если вы хотите точного соответствия модели вашему запросу, отключите оптимизацию в Настройках
Модель и ID
Руб за 1000 символов входных данных
Руб за 1000 символов генерации модели
Размер конте кста
Дата обнов ления
Авто моде ра ция
OpenAI: GPT-4.5 (Preview) ? openai/gpt-4.5-preview Базовый+GPT-4 (не Тестовый)
20.00
40.00
128000
28 фев
да
OpenAI: o3-mini (с онлайн поиском) ? openai/o3-mini-online Базовый+GPT-4 (не Тестовый)За вызов: 3.45 р.биллинг с учетом размышлений (см. ?)онлайнразмышления, математикаstructured-outputs
0.28
1.12
200000
14 фев
да
OpenAI: o3-mini-high (пресет для глубоких размышлений от o3-mini) ? openai/o3-mini-high Базовый+GPT-4 (не Тестовый)биллинг с учетом размышлений (см. ?)размышления, математикаstructured-outputs
0.28
1.12
200000
14 фев
да
OpenAI: o3-mini (для размышлений, не рек. для обычных задач) ? openai/o3-mini Базовый+GPT-4 (не Тестовый)биллинг с учетом размышлений (см. ?)размышления, математикаstructured-outputs
OpenAI: GPT-4o mini (online) ? openai/gpt-4o-mini-online За вызов: 3.45 р.toolsstructured-outputs
0.02
0.08
128000
25 янв
да
OpenAI: o1 (для размышлений, не рек. для обычных задач) ? openai/o1 Базовый+GPT-4 (не Тестовый)биллинг с учетом размышлений (см. ?)размышления, математикаtoolsstructured-outputs
3.5
14.0
128000
18 дек 24
да
OpenAI: GPT-4o (2024-08-06) (версия с поддержкой function calls) ? openai/gpt-4o-2024-08-06-function-call Базовый+GPT-4function callingtools
OpenAI: o1-preview (для размышлений, не рек. для обычных задач) ? openai/o1-preview Базовый+GPT-4 (не Тестовый)биллинг с учетом размышлений (см. ?)размышления, математика
3.5
14.0
128000
13 сен 24
да
OpenAI: o1-mini (не рек. для обычных задач) ? openai/o1-mini Базовый+GPT-4 (не Тестовый)биллинг с учетом размышлений (см. ?)размышления, математика
OpenAI: GPT-3.5 Turbo 16k (11-06) ? openai/gpt-3.5-turbo-1106 рекомендуется
0.15
0.3
16385
16 янв 24
да
OpenAI: GPT-3.5 Turbo openai/gpt-3.5-turbo
0.15
0.3
4095
7 ноя 23
да
OpenAI: GPT-4.5 (Preview)
GPT-4.5 (Preview) - это исследовательская версия новейшей языковой модели OpenAI, разработанная для улучшения возможностей в области рассуждений, творчества и многоступенчатого общения. Она основывается на предыдущих итерациях с улучшениями в области знаний о мире, контекстуальной согласованности и способности более эффективно следовать намерениям пользователя.
Модель демонстрирует улучшенную производительность в задачах, требующих открытого мышления, решения проблем и коммуникации. Ранние тесты показывают, что она лучше генерирует нюансированные ответы, поддерживает согласованность при работе с длинным контекстом и снижает количество галлюцинаций по сравнению с предыдущими версиями.
ОСОБЕННОСТИ БИЛЛИНГА И ВЫЗОВА:
Биллинг осуществляется по данным провайдера - сколько токенов было затрачено на вход и выход, в соответствии с этим идет тарификация, цены указаны за 1000 токенов. Мы не комментируем и не принимаем претензии, связанные с вычислением токенов у провайдера.
Минимальный баланс для вызова модели: 200р.
OpenAI: o3-mini (с онлайн поиском)
Версия o3-mini с онлайн-поиском.
За онлайн-поиск берется плата за вызов.
ОСОБЕННОСТИ БИЛЛИНГА:
До выдачи результатов по API модель размышляет над ответом. Это стоит довольно много токенов, но не показывается в ответе.
Биллинг осуществляется по данным провайдера - сколько токенов было затрачено на вход и выход, в соответствии с этим идет тарификация.
Мы не комментируем и не принимаем претензии, связанные с вычислением токенов у провайдера.
ВРЕМЕННО:
- не работает со стримингом. Т.е. недоступна через обычный чат, но можно воспользоваться специальным в Сервисах. Минимальный баланс для вызова модели: 20р. Поддерживает вызов structure outputs в стандартном OpenAI формате, см. Документацию.
OpenAI: o3-mini-high (пресет для глубоких размышлений от o3-mini)
Это вариант модели o3-mini с предустановленным пресетом high (больше размышлений, но дольше и больший расход токенов)
ОСОБЕННОСТИ БИЛЛИНГА И ВЫЗОВА:
До выдачи результатов по API модель размышляет над ответом. Это стоит довольно много токенов, но не показывается в ответе.
Биллинг осуществляется по данным провайдера - сколько токенов было затрачено на вход и выход, в соответствии с этим идет тарификация. Мы не комментируем и не принимаем претензии, связанные с вычислением токенов у провайдера.
В случае, если в процессе рассуждения достигнут лимит Макс токенов выхода, будет выдан пустой ответ - но он будет тарифицирован.
Также мы рекомендуем указывать повышенное время timeout, если вы используете API - модель может думать иногда 10 минут и более на сложных задачах.
ВРЕМЕННО:
- не работает со стримингом. Т.е. недоступна через обычный чат, но можно воспользоваться специальным в Сервисах. Минимальный баланс для вызова модели: 20р. Поддерживает вызов structure outputs в стандартном OpenAI формате, см. Документацию.
OpenAI: o3-mini (для размышлений, не рек. для обычных задач)
ОБЩЕЕ ОПИСАНИЕ:
OpenAI o3-mini - это экономичная языковая модель, оптимизированная для задач логического мышления в области STEM, особенно преуспевающая в науке, математике и программировании. Модель имеет три регулируемых уровня затрат на рассуждения (low, medium, high)
При средних настройках уровня рассуждений o3-mini соответствует производительности более крупной модели o1 при сложных оценках рассуждений, таких как AIME и GPQA, сохраняя при этом меньшую задержку и стоимость.
ОСОБЕННОСТИ БИЛЛИНГА И ВЫЗОВА:
До выдачи результатов по API модель размышляет над ответом. Это стоит довольно много токенов, но не показывается в ответе.
Биллинг осуществляется по данным провайдера - сколько токенов было затрачено на вход и выход, в соответствии с этим идет тарификация. Мы не комментируем и не принимаем претензии, связанные с вычислением токенов у провайдера.
В случае, если в процессе рассуждения достигнут лимит Макс токенов выхода, будет выдан пустой ответ - но он будет тарифицирован.
Также мы рекомендуем указывать повышенное время timeout, если вы используете API - модель может думать иногда 10 минут и более на сложных задачах.
ВРЕМЕННО:
- не работает со стримингом. Т.е. недоступна через обычный чат, но можно воспользоваться специальным в Сервисах. Минимальный баланс для вызова модели: 20р. Поддерживает вызов structure outputs в стандартном OpenAI формате, см. Документацию.
OpenAI: GPT-4o (2024-11-20) (online)
Версия GPT-4o от 20.11.2024 предлагает улучшенные возможности креативного письма с более естественным, увлекательным и индивидуальным подходом для повышения актуальности и удобства чтения. Модель выступает несколько хуже на логических задачах, но лучше - на задачах, требующих креативности.
Отвечает с учетом онлайн-источников - за это берется дополнительная плата в размере вызова. Поддерживает вызов tools в стандартном OpenAI формате, см. Документацию. Поддерживает вызов structure outputs в стандартном OpenAI формате, см. Документацию. Максимальный размер выходной генерации для модели: 16000 токенов
OpenAI: GPT-4o (online)
GPT-4o («o» от «omni») — это новейшая модель искусственного интеллекта OpenAI, поддерживающая как ввод текста, так и изображения, а также текстовый вывод. Он сохраняет уровень интеллекта GPT-4 Turbo, будучи в два раза быстрее и на 50 % экономичнее. GPT-4o также обеспечивает улучшенную производительность при обработке языков, отличных от английского, и расширенные визуальные возможности. Данные обучения: до октября 2023 г.
Отвечает с учетом онлайн-источников - за это берется дополнительная плата в размере вызова. Поддерживает вызов tools в стандартном OpenAI формате, см. Документацию.
OpenAI: GPT-4o mini (online)
Самая последняя модель от OpenAI из семейства GPT-4o.
Превосходит по цене и качеству GPT-3.5-Turbo, а также Claude 3 Haiku и Gemini Flash.
Отвечает с учетом онлайн-источников - за это берется дополнительная плата в размере вызова.
Поддерживает вызов tools в стандартном OpenAI формате, см. Документацию. Поддерживает вызов structure outputs в стандартном OpenAI формате, см. Документацию.
OpenAI: o1 (для размышлений, не рек. для обычных задач)
ОБЩЕЕ ОПИСАНИЕ:
Последнее и самое мощное семейство моделей от OpenAI, o1 разработано так, чтобы тратить больше времени на размышления перед ответом.
Модели o1 оптимизированы для математики, науки, программирования и других задач, связанных с STEM. Они постоянно демонстрируют точность на уровне PhD в тестах по физике, химии и биологии.
ОСОБЕННОСТИ БИЛЛИНГА:
До выдачи результатов по API модель размышляет над ответом. Это стоит довольно много токенов, но не показывается в ответе.
Биллинг осуществляется по данным провайдера - сколько токенов было затрачено на вход и выход, в соответствии с этим идет тарификация.
Мы не комментируем и не принимаем претензии, связанные с вычислением токенов у провайдера.
ВРЕМЕННО:
- не работает со стримингом. Т.е. недоступна через обычный чат, но можно воспользоваться специальным в Сервисах. Минимальный баланс для вызова модели: 100р. Поддерживает вызов tools в стандартном OpenAI формате, см. Документацию. Поддерживает вызов structure outputs в стандартном OpenAI формате, см. Документацию.
OpenAI: GPT-4o (2024-08-06) (версия с поддержкой function calls)
Специальная версия с поддержкой более старой функциональностью function calling.
Тарифицируется потокенно; цена указана за 1000 токенов.
Окончательная стоимость указывается после выполнения запроса. Поддерживает вызов tools в стандартном OpenAI формате, см. Документацию.
OpenAI: GPT-4o (2024-11-20)
Версия GPT-4o от 20.11.2024 предлагает улучшенные возможности креативного письма с более естественным, увлекательным и индивидуальным подходом для повышения актуальности и удобства чтения. Модель выступает несколько хуже на логических задачах, но лучше - на задачах, требующих креативности. Поддерживает вызов tools в стандартном OpenAI формате, см. Документацию. Поддерживает вызов structure outputs в стандартном OpenAI формате, см. Документацию. Максимальный размер выходной генерации для модели: 16000 токенов
OpenAI: o1-preview (для размышлений, не рек. для обычных задач)
ОБЩЕЕ ОПИСАНИЕ:
Последнее и самое мощное семейство моделей от OpenAI, o1 разработано так, чтобы тратить больше времени на размышления перед ответом.
Модели o1 оптимизированы для математики, науки, программирования и других задач, связанных с STEM. Они постоянно демонстрируют точность на уровне PhD в тестах по физике, химии и биологии.
ОСОБЕННОСТИ БИЛЛИНГА:
До выдачи результатов по API модель размышляет над ответом. Это стоит довольно много токенов, но не показывается в ответе.
Биллинг осуществляется по данным провайдера - сколько токенов было затрачено на вход и выход, в соответствии с этим идет тарификация.
Мы не комментируем и не принимаем претензии, связанные с вычислением токенов у провайдера.
ВРЕМЕННО:
- не работает со стримингом. Т.е. недоступна через обычный чат, но можно воспользоваться специальным в Сервисах. Минимальный баланс для вызова модели: 100р.
OpenAI: o1-mini (не рек. для обычных задач)
ОБЩЕЕ ОПИСАНИЕ:
Последнее и самое мощное семейство моделей от OpenAI, o1 разработано так, чтобы тратить больше времени на размышления перед ответом.
Модели o1 оптимизированы для математики, науки, программирования и других задач, связанных с STEM. Они постоянно демонстрируют точность на уровне PhD в тестах по физике, химии и биологии.
RATE-LIMIT:
В момент запуска (12-13 сентября) модель ОЧЕНЬ сильно ограничена в числе запросов и постоянно выдает ошибку 429 как экспериментальная модель. Позднее данные ограничения должны быть сняты.
ОСОБЕННОСТИ БИЛЛИНГА:
До выдачи результатов по API модель размышляет над ответом. Это стоит довольно много токенов, но не показывается в ответе.
Биллинг осуществляется по данным провайдера - сколько токенов было затрачено на вход и выход, в соответствии с этим идет тарификация.
Мы не комментируем и не принимаем претензии, связанные с вычислением токенов у провайдера.
ВРЕМЕННО:
- не работает со стримингом. Т.е. недоступна через обычный чат, но можно воспользоваться специальным в Сервисах. Минимальный баланс для вызова модели: 30р.
OpenAI: GPT-4o (последняя, экспериментальная)
По этому ID доступна самая последняя модель GPT-4o от OpenAI. Поведение модели постоянно меняется и улучшается; если вам нужно стабильное поведение по API, используйте другие модели.
OpenAI: GPT-4o (до 64 000 выходных токенов) (альфа-версия)
Версия GPT-4o в которой расширены возможности генерации выхода до 64 000 токенов). Представлена в июле 2024. Максимальный размер выходной генерации для модели: 64000 токенов
OpenAI: GPT-4o (2024-08-06)
Версия GPT-4o от 2024-08-06 предлагает улучшенную производительность в структурированных выводах, с возможностью предоставления JSON-схемы в формате ответа. Поддерживает вызов tools в стандартном OpenAI формате, см. Документацию. Поддерживает вызов structure outputs в стандартном OpenAI формате, см. Документацию.
OpenAI: GPT-4o mini
Самая последняя модель от OpenAI из семейства GPT-4o.
Превосходит по цене и качеству GPT-3.5-Turbo, а также Claude 3 Haiku и Gemini Flash.
Поддерживает вызов tools в стандартном OpenAI формате, см. Документацию. Поддерживает вызов structure outputs в стандартном OpenAI формате, см. Документацию.
OpenAI: GPT-4o
GPT-4o («o» от «omni») — это новейшая модель искусственного интеллекта OpenAI, поддерживающая как ввод текста, так и изображения, а также текстовый вывод. Он сохраняет уровень интеллекта GPT-4 Turbo, будучи в два раза быстрее и на 50 % экономичнее. GPT-4o также обеспечивает улучшенную производительность при обработке языков, отличных от английского, и расширенные визуальные возможности. Данные обучения: до октября 2023 г. Поддерживает вызов tools в стандартном OpenAI формате, см. Документацию.
OpenAI: GPT-4 Turbo (gpt-4-turbo-2024-04-09)
Последняя модель GPT-4-Turbo.
OpenAI: GPT-4 Turbo (0125-preview)
Модель gpt-4-0125-preview
Новейшая модель GPT-4 с улучшенным выполнением инструкций, режимом JSON, воспроизводимыми выводами, параллельным вызовом функций и многим другим. Данные обучения: до декабря 2023 г.
Примечание. Во время предварительной версии OpenAI сильно ограничивает скорость. Поддерживает вызов tools в стандартном OpenAI формате, см. Документацию.
OpenAI: GPT-4 Turbo (1106-preview)
Последняя модель GPT-4 с улучшенным следованием инструкциям, режимом JSON, воспроизводимыми выходными данными, параллельным вызовом функций и многим другим. Возвращает максимум 4096 выходных токенов. Данные обучения: до апреля 2023.
OpenAI: GPT-4
Самая мощная нейросетевая модель от OpenAI.
OpenAI: GPT-3.5 Turbo 16k (01-25)
Новейшая модель GPT-3.5 Turbo с улучшенным выполнением инструкций, режимом JSON, воспроизводимыми выходными данными, параллельным вызовом функций и многим другим. Данные обучения: до сентября 2021 г.
Эта версия имеет более высокую точность ответа в запрошенных форматах и исправлена ошибка, которая вызывала проблему с кодировкой текста для вызовов функций не на английском языке.
OpenAI: GPT-3.5 Turbo Instruct
В отличие от традиционного GPT-3.5 Turbo, эта модель больше сфокусирована на выполнении инструкций (дай ответ и пр.), нежели на ведение диалога в чате.
Анонсирована Майкрософт 21 сентября 2023.
Стоимость и производительность такие же, как и у других моделей GPT-3.5 с контекстными окнами 4K. Обучающие данные актуальны на сентябрь 2021 года.
OpenAI: GPT-3.5 Turbo Instruct заменит существующие модели Instruct, а также text-ada-001, text-babbage-001, text-curie-001 и три модели text-davinci, которые выйдут на пенсию 4 января 2024 г.
OpenAI: GPT-3.5 Turbo 16k (11-06)
Новейшая модель GPT-3.5 Turbo с улучшенным выполнением инструкций, режимом JSON, воспроизводимыми выходными данными, параллельным вызовом функций и многим другим. Возвращает максимум 4096 выходных токенов. Данные обучения: до сентября 2021.
Модели Anthropic: Claude Sonnet, Opus, Haiku
Нейросети от Anthropic – основного конкурента OpenAI. Мы рекомендуем их пробовать, если нужна обработка больших текстов (файлов и пр.). Рекомендуем их нейросети Claude 3 – Haiku для дешевой и быстрой обработки большого контекста, Opus – для максимально качественной работы.
Модель и ID
Руб за 1000 символов входных данных
Руб за 1000 символов генерации модели
Размер конте кста
Дата обнов ления
Авто моде ра ция
Anthropic: Claude 3.7 Sonnet Deep Research 1.0 ? anthropic/claude-3.7-sonnet-deep-research-1.0 Базовый+GPT-4 (не Тестовый)За вызов: 30.0 р.топ от 10 мартаonline, researchпримерная стоимость запроса 100-150 р.
0.4
2.0
200000
10 мар
да
Anthropic: Claude 3.7 Sonnet Deep Online ? anthropic/claude-3.7-sonnet-deep-online Базовый+GPT-4 (не Тестовый)За вызов: 12.0 р.топ от 9 мартаонлайнпримерная стоимость запроса 30-50 р.
0.4
2.0
200000
9 мар
да
Anthropic: Claude 3.7 Sonnet Research ? anthropic/claude-3.7-sonnet-online-research Базовый+GPT-4 (не Тестовый)За вызов: 20.0 р.топ от 9 мартаonline, researchпримерная стоимость запроса 80-120 р.
0.4
2.0
200000
9 мар
да
Anthropic: Claude 3.7 Sonnet (online высокого качества) ? anthropic/claude-3.7-sonnet-online-hq Базовый+GPT-4 (не Тестовый)За вызов: 2.0 р.топ от 9 мартаонлайн
0.4
2.0
200000
9 мар
да
Anthropic: Claude 3.7 Sonnet Thinking High (новая от 24 февраля) ? anthropic/claude-3.7-sonnet-thinking-high Базовый+GPT-4 (не Тестовый)топ от 24 февраляразмышления
0.4
2.0
200000
26 фев
да
Anthropic: Claude 3.7 Sonnet Thinking Low (новая от 24 февраля) ? anthropic/claude-3.7-sonnet-thinking-low Базовый+GPT-4 (не Тестовый)размышления
0.4
2.0
200000
26 фев
да
Anthropic: Claude 3.7 Sonnet Thinking (новая от 24 февраля) ? anthropic/claude-3.7-sonnet-thinking Базовый+GPT-4 (не Тестовый)размышления
0.4
2.0
200000
26 фев
да
Anthropic: Claude 3.7 Sonnet (новая от 24 февраля) ? anthropic/claude-3.7-sonnet Базовый+GPT-4топ от 24 февраляtools
0.4
2.0
200000
24 фев
да
Anthropic: Claude 3.5 Haiku (online) ? anthropic/claude-3-5-haiku-online За вызов: 3.45 р.топ от 5 ноябряtools
0.14
0.70
200000
25 янв
да
Anthropic: Claude 3.5 Sonnet (новая от 22 октября) (online) ? anthropic/claude-3.5-sonnet-online Базовый+GPT-4За вызов: 3.45 р.топ от 22 октябряtools
0.4
2.0
200000
25 янв
да
Anthropic: Claude 3.5 Haiku ? anthropic/claude-3-5-haiku топ от 5 ноябряtools
0.14
0.70
200000
5 ноя 24
да
Anthropic: Claude 3.5 Sonnet (новая от 22 октября) ? anthropic/claude-3.5-sonnet Базовый+GPT-4топ от 22 октябряtools
0.4
2.0
200000
22 окт 24
да
Anthropic: Claude 3 Haiku ? anthropic/claude-3-haiku дешевая и с большим контекстомtools
0.0375
0.1875
200000
14 мар 24
да
Anthropic: Claude 3 Opus ? anthropic/claude-3-opus Базовый+GPT-4ТОП!tools
2.0
10.0
200000
6 мар 24
да
Anthropic: Claude 3 Sonnet ? anthropic/claude-3-sonnet Базовый+GPT-4tools
0.4
2.0
200000
6 мар 24
да
Anthropic: Claude v2.0 ? anthropic/claude-2.0 Базовый+GPT-4
1.2
3.6
100000
23 ноя 23
да
Anthropic: Claude v2.1 ? anthropic/claude-2 Базовый+GPT-4
1.2
3.6
200000
23 ноя 23
да
Anthropic: Claude 3.7 Sonnet Deep Research 1.0
Модель позволяет одним запросом получить расширенный исследовательский отчет.
Версия Sonnet 3.7 Thinking с расширенным поиском по интернету и формированием полноценного отчета
Рекомендуется задавать запрос максимально просто, одним предложением, например: Сравни Nvidia 5070 и 4090.
В процессе запроса
- выбираются наиболее релевантные источники
- из их текста делается выжимка по пользовательскому запросу с помощью gpt-4o-mini, что увеличивает в 2-3 раза число фактической информации, по которой делается анализ. Вызовы gpt-4o-mini для всех источников будет показан в Активности пользователя и оплачивается дополнительно (около 0.5 р. за вызов)
- Будет рассмотрен только запрос пользователя. Предыдущий чат и инструкции будут проигнорированы.
- При работе модель подменяет ваши предыдущие запросы и настройки собственным системным промтом и настройками максимальной генерации - т.е. входной промт будет большим, это нормально.
- Research можно вызывать по API так же, как любую другую нейросетевую модель – просто передайте в последнем сообщении пользователя необходимый запрос.
Минимальный баланс для вызова модели: 250р.
Anthropic: Claude 3.7 Sonnet Deep Online
Версия Sonnet 3.7 с расширенным поиском по интернету и анализом источников.
Рекомендуется задавать запрос максимально просто, одним предложением, например: Сравни Nvidia 5070 и 4090.
В процессе запроса
- выбираются наиболее релевантные источники
- из их текста делается выжимка по пользовательскому запросу с помощью gpt-4o-mini, что увеличивает в 2-3 раза число фактической информации, по которой делается анализ. Вызовы gpt-4o-mini для всех источников будет показан в Активности пользователя и оплачивается дополнительно (около 0.5 р. за вызов)
Средняя полная стоимость запроса (без истории чата) - 30-50 рублей за запрос. Минимальный баланс для вызова модели: 70р.
Anthropic: Claude 3.7 Sonnet Research
Модель позволяет одним запросом получить расширенный исследовательский отчет.
Версия Sonnet 3.7 Thinking с расширенным поиском по интернету и формированием полноценного отчета
Рекомендуется задавать запрос максимально просто, одним предложением, например: Сравни Nvidia 5070 и 4090.
Средняя полная стоимость запроса (без истории чата) - 80-120 рублей за запрос.
- Будет рассмотрен только запрос пользователя. Предыдущий чат и инструкции будут проигнорированы.
- При работе модель подменяет ваши предыдущие запросы и настройки собственным системным промтом и настройками максимальной генерации - т.е. входной промт будет большим, это нормально.
- Research можно вызывать по API так же, как любую другую нейросетевую модель – просто передайте в последнем сообщении пользователя необходимый запрос.
Минимальный баланс для вызова модели: 200р.
Anthropic: Claude 3.7 Sonnet (online высокого качества)
Версия Sonnet 3.7 с расширенным поиском по интернету - при ответе берется 20 источников.
Рекомендуется задавать запрос максимально просто, одним предложением, например: Сравни Nvidia 5070 и 4090.
Средняя полная стоимость запроса (без истории чата) - 10-15 рублей за запрос. Минимальный баланс для вызова модели: 50р.
Anthropic: Claude 3.7 Sonnet Thinking High (новая от 24 февраля)
Компания Anthropic объявила о выпуске новой версии своей языковой модели Claude 3.7 Sonnet. Ключевой особенностью обновления стала интеграция стандартного режима ответов и режима "размышления" в одной нейросети.
В стандартном режиме Claude 3.7 Sonnet представляет собой улучшенную версию Claude 3.5 Sonnet. В режиме "размышления" (аналогичному o3-mini от OpenAI или DeepSeek R1) она анализирует себя перед ответом, что улучшает её производительность в математике, физике, следовании инструкциям, программировании и многих других задачах.
ОСОБЕННОСТИ РАЗМЫШЛЕНИЯ:
Модели Anthropic позволяют задать бюджет токенов на размер размышлений, но это плохо стыкуется с уже имеющимися интерфейсами.
Поэтому для них будет доступно 3 модели с разным параметром "уровень размышлений" OpenAI: low, medium (по умолчанию) и high.
Исходя из уровня размышлений, бюджет на размышления будет определяться как
thinking_budget = max_tokens * effort_thinking_level, где
effort_thinking_level равен 0.8 для high, 0.5 для medium и 0.2 для low.
При этом thinking_budget не может быть меньше 1024 или более 32000 токенов - при выходе за эти границы он будет округляться в сторону границ.
Anthropic: Claude 3.7 Sonnet Thinking Low (новая от 24 февраля)
Компания Anthropic объявила о выпуске новой версии своей языковой модели Claude 3.7 Sonnet. Ключевой особенностью обновления стала интеграция стандартного режима ответов и режима "размышления" в одной нейросети.
В стандартном режиме Claude 3.7 Sonnet представляет собой улучшенную версию Claude 3.5 Sonnet. В режиме "размышления" (аналогичному o3-mini от OpenAI или DeepSeek R1) она анализирует себя перед ответом, что улучшает её производительность в математике, физике, следовании инструкциям, программировании и многих других задачах.
ОСОБЕННОСТИ РАЗМЫШЛЕНИЯ:
Модели Anthropic позволяют задать бюджет токенов на размер размышлений, но это плохо стыкуется с уже имеющимися интерфейсами.
Поэтому для них будет доступно 3 модели с разным параметром "уровень размышлений" OpenAI: low, medium (по умолчанию) и high.
Исходя из уровня размышлений, бюджет на размышления будет определяться как
thinking_budget = max_tokens * effort_thinking_level, где
effort_thinking_level равен 0.8 для high, 0.5 для medium и 0.2 для low.
При этом thinking_budget не может быть меньше 1024 или более 32000 токенов - при выходе за эти границы он будет округляться в сторону границ.
Anthropic: Claude 3.7 Sonnet Thinking (новая от 24 февраля)
Компания Anthropic объявила о выпуске новой версии своей языковой модели Claude 3.7 Sonnet. Ключевой особенностью обновления стала интеграция стандартного режима ответов и режима "размышления" в одной нейросети.
В стандартном режиме Claude 3.7 Sonnet представляет собой улучшенную версию Claude 3.5 Sonnet. В режиме "размышления" (аналогичному o3-mini от OpenAI или DeepSeek R1) она анализирует себя перед ответом, что улучшает её производительность в математике, физике, следовании инструкциям, программировании и многих других задачах.
ОСОБЕННОСТИ РАЗМЫШЛЕНИЯ:
Модели Anthropic позволяют задать бюджет токенов на размер размышлений, но это плохо стыкуется с уже имеющимися интерфейсами.
Поэтому для них будет доступно 3 модели с разным параметром "уровень размышлений" OpenAI: low, medium (по умолчанию) и high.
Исходя из уровня размышлений, бюджет на размышления будет определяться как
thinking_budget = max_tokens * effort_thinking_level, где
effort_thinking_level равен 0.8 для high, 0.5 для medium и 0.2 для low.
При этом thinking_budget не может быть меньше 1024 или более 32000 токенов - при выходе за эти границы он будет округляться в сторону границ.
Anthropic: Claude 3.7 Sonnet (новая от 24 февраля)
Компания Anthropic объявила о выпуске новой версии своей языковой модели Claude 3.7 Sonnet. Ключевой особенностью обновления стала интеграция стандартного режима ответов и режима "размышления" в одной нейросети.
В стандартном режиме Claude 3.7 Sonnet представляет собой улучшенную версию Claude 3.5 Sonnet. В режиме "размышления" (аналогичному o3-mini от OpenAI или DeepSeek R1) она анализирует себя перед ответом, что улучшает её производительность в математике, физике, следовании инструкциям, программировании и многих других задачах. Поддерживает вызов tools в стандартном OpenAI формате, см. Документацию.
Anthropic: Claude 3.5 Haiku (online)
Клод 3.5 Хайку обладает улучшенными возможностями в скорости, точности кодирования и использовании инструментов. Разработанный для достижения высоких результатов в приложениях реального времени, он обеспечивает быстрое время отклика, что крайне важно для динамических задач, таких как чат-взаимодействия и мгновенные предложения по кодированию.
Это делает его особенно подходящим для сред, требующих как скорости, так и точности, таких как разработка программного обеспечения, чат-боты для обслуживания клиентов и системы управления данными.
Отвечает с учетом онлайн-источников - за это берется дополнительная плата в размере вызова. Поддерживает вызов tools в стандартном OpenAI формате, см. Документацию. Максимальный размер выходной генерации для модели: 8192 токенов
Anthropic: Claude 3.5 Sonnet (новая от 22 октября) (online)
Сегодня мы запускаем Claude 3.5 Sonnet — наш первый релиз в будущей линейке моделей Claude 3.5. Claude 3.5 Sonnet поднимает планку в отрасли по уровню интеллекта, превосходя конкурентные модели и Claude 3 Opus по широкому спектру оценок, с такой же скоростью и стоимостью, как и у нашей средней модели Claude 3 Sonnet.
Отвечает с учетом онлайн-источников - за это берется дополнительная плата в размере вызова. Поддерживает вызов tools в стандартном OpenAI формате, см. Документацию.
Anthropic: Claude 3.5 Haiku
Клод 3.5 Хайку обладает улучшенными возможностями в скорости, точности кодирования и использовании инструментов. Разработанный для достижения высоких результатов в приложениях реального времени, он обеспечивает быстрое время отклика, что крайне важно для динамических задач, таких как чат-взаимодействия и мгновенные предложения по кодированию.
Это делает его особенно подходящим для сред, требующих как скорости, так и точности, таких как разработка программного обеспечения, чат-боты для обслуживания клиентов и системы управления данными. Поддерживает вызов tools в стандартном OpenAI формате, см. Документацию. Максимальный размер выходной генерации для модели: 8192 токенов
Anthropic: Claude 3.5 Sonnet (новая от 22 октября)
Сегодня мы запускаем Claude 3.5 Sonnet — наш первый релиз в будущей линейке моделей Claude 3.5. Claude 3.5 Sonnet поднимает планку в отрасли по уровню интеллекта, превосходя конкурентные модели и Claude 3 Opus по широкому спектру оценок, с такой же скоростью и стоимостью, как и у нашей средней модели Claude 3 Sonnet. Поддерживает вызов tools в стандартном OpenAI формате, см. Документацию.
Anthropic: Claude 3 Haiku
Claude 3 Haiku — самая быстрая и компактная модель Anthropic, обеспечивающая практически мгновенное реагирование. Быстрая и точная целевая производительность. Поддерживает вызов tools в стандартном OpenAI формате, см. Документацию. Максимальный размер выходной генерации для модели: 4096 токенов
Anthropic: Claude 3 Opus
Claude 3 Opus — самая мощная модель Anthropic для решения очень сложных задач. Он может похвастаться высочайшим уровнем производительности, интеллекта, беглости речи и понимания. Поддерживает вызов tools в стандартном OpenAI формате, см. Документацию.
Anthropic: Claude 3 Sonnet
Claude 3 Sonnet — это идеальный баланс интеллекта и скорости для корпоративных рабочих нагрузок. Максимальная полезность по более низкой цене, надежность, сбалансированность для масштабируемых развертываний. Поддерживает вызов tools в стандартном OpenAI формате, см. Документацию.
Anthropic: Claude v2.0
Anthropic: Claude v2.0
Anthropic: Claude v2.1
Аналог GPT-4 от компании Anthropic - главного конкурента OpenAI, выдающего схожие по качеству ответы.
Отмечу, что Claude v2 дешевле, но по ощущениям не проигрывает GPT-4, если брать текстовую генерацию (в задачах логики она обычно хуже).
Обновлена до последней версии от Anthropic - Claude v2.1 c 200 000 контекста с презентации 21 ноября!
Модели Perplexity: онлайн, с доступом к Интернету и фактической информации
Нейросети от Perplexity, сфокусированные на более точным следованиям фактам. Онлайн-модели (online в конце) перед запросом предположительно запрашивают свежие данные в Интернете, после чего формируют ответ – и, например, могут отвечать о погоде сегодня, о курсе доллара и пр. Также модели можно передавать ссылку на конкретную страницу в Интернете и с высокой вероятностью получить релевантный ответ. Наша новость на Хабре о моделях Perplexity
Внимание: онлайн-модель дополнительно тарифицируется по каждому запросу (т.к. идет вызов онлайн-поиска). Модель НЕ поддерживает чат – каждый запрос учитывает только последнее сообщение пользователя.
Рекомендация: поскольку Perplexity постоянно выпускает новые модели и удаляет обработку старых, рекомендуется установить в ваших приложениях ID псевдонима для малой или большой модели – тогда сервис сам перенаправит ваш запрос в самую последнюю версию (по ней и будет происходить тарификация)
Модель и ID
Руб за 1000 символов входных данных
Руб за 1000 символов генерации модели
Размер конте кста
Дата обнов ления
Авто моде ра ция
Perplexity: Sonar ? perplexity/sonar-online За вызов: 0.85 р.рекомендуетсяонлайн
0.15
0.15
128000
31 янв
нет
Perplexity: Sonar Reasoning (на базе DeepSeek R1) ? perplexity/sonar-r1-online Базовый+GPT-4За вызов: 0.85 р.онлайнразмышления
Perplexity, последняя большая онлайн модель (перенаправляет в нужный ID) perplexity/latest-large-online рекомендуетсяонлайн
0
0
32000
8 авг 24
нет
Perplexity, последняя малая онлайн модель (перенаправляет в нужный ID) perplexity/latest-small-online онлайн
0
0
32000
8 авг 24
нет
Perplexity: Sonar
Сонар - легкий, доступный, быстрый и простой в использовании инструмент, теперь с функцией цитирования и возможностью настройки источников.
Perplexity: Sonar Reasoning (на базе DeepSeek R1)
Sonar Reasoning - это модель рассуждений, предоставляемая Perplexity на основе Deepseek R1.
Она позволяет разработчикам использовать длинные цепочки рассуждений со встроенным веб-поиском.
ОСОБЕННОСТИ БИЛЛИНГА:
До выдачи результатов по API модель размышляет над ответом. Это стоит довольно много токенов, но не показывается в ответе.
Биллинг осуществляется по данным провайдера - сколько токенов было затрачено на вход и выход, в соответствии с этим идет тарификация.
Мы не комментируем и не принимаем претензии, связанные с вычислением токенов у провайдера.
Максимальный размер выходной генерации для модели: 127000 токенов
Perplexity: Llama 3.1 Sonar 70B Online
Llama 3.1 Sonar - это новейшее семейство моделей Perplexity. Оно превосходит предыдущие модели Sonar по экономической эффективности, скорости и производительности.
Perplexity: Llama 3.1 Sonar 8B Online
Llama 3.1 Sonar - это новейшее семейство моделей Perplexity. Оно превосходит предыдущие модели Sonar по экономической эффективности, скорости и производительности.
Модели Google: Gemini Pro, Flash
Нейросети от Google. Достаточно дешевые.
Рекомендуются последние версии Gemini, однако пользователи жалуются, что даже при не очень большом контексте (5К+ символов) Google относительно часто возвращает ошибки и очень маленькие ответы (июнь 2024).
В случае, если нужна точность, рекомендуем модели Claude 3 с большим контекстом.
Google: Gemini Pro 1.0 ? google/gemini-pro рекомендуется
0.049
0.11
32768
26 апр 24
нет
Gemma 3 27B (опенсорс)
Gemma 3 27B - это новейшая модель Google с открытым исходным кодом, преемник Gemma 2. Она обрабатывает контекстные окна до 128 тысяч токенов, понимает более 140 языков и предлагает улучшенные возможности в математике, рассуждениях и чате, включая структурированные выходные данные и вызов функций.
Модели Gemma хорошо подходят для различных задач генерации текста, включая ответы на вопросы, обобщение и рассуждение.
Нормально работает на русском языке (рекомендуется температура пониже)
Google: Gemini Flash 2.0 Lite
Gemini Flash 2.0 Lite предлагает значительно более быстрое время до первого токена (TTFT) по сравнению с Gemini Flash 1.5, сохраняя при этом качество на уровне более крупных моделей, таких как Gemini Pro 1.5.
Google: Gemini Flash 2.0
Gemini Flash 2.0 предлагает значительно более быстрое время до первого токена (TTFT) по сравнению с Gemini Flash 1.5, сохраняя при этом качество на уровне более крупных моделей, таких как Gemini Pro 1.5.
Google: Gemini Pro 1.5 (версия 002 от 25 сентября) (online)
Новейшая мультимодальная модель Google, поддерживающая изображения и видео в текстовых сообщениях или подсказках чата.
Оптимизирована для языковых задач, таких как:
- Генерация кода
- Генерация текста
- Редактирование текста
- Решение проблем
- Рекомендации
- Извлечение информации
- Извлечение или генерация данных
- ИИ-агенты
Отвечает с учетом онлайн-источников - за это берется дополнительная плата в размере вызова.
Gemini 1.5 Flash-8B
Gemini 1.5 Flash-8B оптимизирован для скорости и эффективности, обеспечивая улучшенную производительность в небольших задачах с подсказками, таких как чат, транскрипция и перевод. Благодаря сниженной задержке он очень эффективен для операций в режиме реального времени и в больших масштабах. Эта модель ориентирована на экономически эффективные решения при сохранении высокого качества результатов. Поддерживает вызов tools в стандартном OpenAI формате, см. Документацию.
Gemma 2 27B (опенсорс)
Gemma 2 27B от Google - это открытая модель, созданная на основе тех же исследований и технологий, которые использовались для создания моделей Gemini.
Модели Gemma хорошо подходят для различных задач генерации текста, включая ответы на вопросы, обобщение и рассуждение.
Нормально работает на русском языке (рекомендуется температура пониже)
Google: Gemma 2 9B (опенсорс)
Gemma 2 9B от Google - это передовая языковая модель с открытым исходным кодом, которая устанавливает новый стандарт эффективности и производительности в своем классе размеров.
Разработанная для широкого спектра задач, она позволяет разработчикам и исследователям создавать инновационные приложения, сохраняя при этом доступность, безопасность и экономическую эффективность.
Google: Gemini Flash 1.5 (версия 002 от 25 сентября)
Gemini 1.5 Flash — это базовая модель, которая хорошо справляется с различными мультимодальными задачами, такими как визуальное понимание, классификация, обобщение и создание контента из изображений, аудио и видео. Он умеет обрабатывать визуальные и текстовые данные, такие как фотографии, документы, инфографика и снимки экрана.
Gemini 1.5 Flash предназначен для выполнения объемных и высокочастотных задач, где стоимость и задержка имеют значение. При выполнении большинства распространенных задач Flash обеспечивает качество, сравнимое с другими моделями Gemini Pro, при значительно меньших затратах. Flash хорошо подходит для таких приложений, как чат-помощники и создание контента по требованию, где скорость и масштаб имеют значение.
Google: Gemini Pro 1.5 (версия 002 от 25 сентября)
Новейшая мультимодальная модель Google, поддерживающая изображения и видео в текстовых сообщениях или подсказках чата.
Оптимизирована для языковых задач, таких как:
- Генерация кода
- Генерация текста
- Редактирование текста
- Решение проблем
- Рекомендации
- Извлечение информации
- Извлечение или генерация данных
- ИИ-агенты
Версия от мая 2024 г.
Google: PaLM 2 Chat 32k
PaLM 2 — это флагманская языковая модель Google с улучшенными возможностями многоязычности, рассуждения и генерации кода.
Google: Gemini Pro 1.0
Предназначен для решения задач на естественном языке, текстового и кодового чата, а также генерации кода.
Максимальный размер генерации: 8 192 токена.
Модели DeepSeek: V3, R1
Нашумевшие нейросети от DeepSeek. Достаточно дешевые.
Они крайне дешевые в своем классе – но только при использовании самого провайдера DeepSeek, который логирует запросы (и в конце января DeepSeek не смог переварить интерес к своим моделям и лег)
Поэтому мы также поддерживаем альтернативных провайдеров для DeepSeek (постфикс alt) – они дороже, но не декларируют логирование данных и в целом часто устойчивее.
Модель и ID
Руб за 1000 символов входных данных
Руб за 1000 символов генерации модели
Размер конте кста
Дата обнов ления
Авто моде ра ция
DeepSeek V3 0324 600B (альтернативные провайдеры) ? deepseek/deepseek-chat-0324-alt общие вопросы и программирование
0.16
0.16
128000
25 мар
нет
DeepSeek R1 дистиллят на базе LLama 3.3 70B (быстрая, более 200 токенов в секунду) ? deepseek/deepseek-r1-distill-llama-70b-fast Базовый+GPT-4общие вопросы
DeepSeek R1 дистиллят на базе LLama 3.3 70B (для размышлений) ? deepseek/deepseek-r1-distill-llama-70b Базовый+GPT-4общие вопросы
0.04
0.15
128000
28 янв
нет
DeepSeek R1 (конкурент o1, для размышлений, альтернативный провайдер) ? deepseek/deepseek-r1-alt Базовый+GPT-4общие вопросы
0.12
0.36
128000
3 фев
нет
DeepSeek R1 (конкурент o1, для размышлений, не рекомендуется для обычного пользования) ? deepseek/deepseek-r1 Базовый+GPT-4провайдер логирует данныеобщие вопросы
0.20
0.80
65536
20 янв
нет
DeepSeek V3 600B (альтернативные провайдеры) ? deepseek/deepseek-chat-alt общие вопросы и программирование
DeepSeek-Coder-V2 236B MoE (v2.5) (теперь универсальная модель, перенаправляется в DeepSeek Chat) ? deepseek/deepseek-coder топ программированиепровайдер логирует данные
0.04
0.05
128000
11 сен 24
нет
DeepSeek V3 0324 600B (альтернативные провайдеры)
Дотренированная версия DeepSeek V3 от 24 марта 2025 - несколько лучшие результаты по всем метрикам.
Версия от альтернативных провайдеров.
Максимальный размер выходной генерации для модели: 2000 токенов
DeepSeek R1 дистиллят на базе LLama 3.3 70B (быстрая, более 200 токенов в секунду)
DeepSeek R1 Distill Llama 70B - это дистиллированная большая языковая модель, основанная на Llama-3.3-70B-Instruct, использующая выходные данные DeepSeek R1.
При использовании рекомендуется добавлять в системный промт фразу "Think step by step" Максимальный размер выходной генерации для модели: 32000 токенов
DeepSeek R1 (конкурент o1, альтернативный провайдер, быстрее, но дороже)
DeepSeek-R1 - это новейшая модель от команды DeepSeek, нацеленная на размышления с рассуждениями.
ОСОБЕННОСТИ БИЛЛИНГА:
До выдачи результатов по API модель размышляет над ответом. Это стоит довольно много токенов, но может не показываться в ответе.
Максимальный размер выходной генерации для модели: 163840 токенов
DeepSeek-R1 - это новейшая модель от команды DeepSeek, нацеленная на размышления с рассуждениями.
Эта версия также включает в себя анализ результатов Интернет-поиска по запросу пользователя
ОСОБЕННОСТИ БИЛЛИНГА:
До выдачи результатов по API модель размышляет над ответом. Это стоит довольно много токенов, но не показывается в ответе.
Биллинг осуществляется по данным провайдера - сколько токенов было затрачено на вход и выход, в соответствии с этим идет тарификация.
Мы не комментируем и не принимаем претензии, связанные с вычислением токенов у провайдера.
Максимальный размер выходной генерации для модели: 128000 токенов
DeepSeek R1 дистиллят на базе LLama 3.3 70B (для размышлений)
DeepSeek R1 Distill Llama 70B - это дистиллированная большая языковая модель, основанная на Llama-3.3-70B-Instruct, использующая выходные данные DeepSeek R1.
При использовании рекомендуется добавлять в системный промт фразу "Think step by step" Максимальный размер выходной генерации для модели: 128000 токенов
DeepSeek R1 (конкурент o1, для размышлений, альтернативный провайдер)
DeepSeek-R1 - это новейшая модель от команды DeepSeek, нацеленная на размышления с рассуждениями.
До выдачи результатов по API модель размышляет над ответом. Это стоит довольно много токенов, но не показывается в ответе. Максимальный размер выходной генерации для модели: 128000 токенов
DeepSeek R1 (конкурент o1, для размышлений, не рекомендуется для обычного пользования)
DeepSeek-R1 - это новейшая модель от команды DeepSeek, нацеленная на размышления с рассуждениями.
ОСОБЕННОСТИ БИЛЛИНГА:
До выдачи результатов по API модель размышляет над ответом. Это стоит довольно много токенов, но не показывается в ответе.
Биллинг осуществляется по данным провайдера - сколько токенов было затрачено на вход и выход, в соответствии с этим идет тарификация.
Мы не комментируем и не принимаем претензии, связанные с вычислением токенов у провайдера.
DeepSeek V3 600B (альтернативные провайдеры)
Версия от альтернативных провайдеров.
Максимальный размер выходной генерации для модели: 2000 токенов
DeepSeek V3 600B (обновлена 26 декабря)
DeepSeek-V3 - это новейшая модель от команды DeepSeek, основанная на возможностях следования инструкциям и программирования предыдущих версий. Предварительно обученная на почти 15 триллионах токенов, согласно представленным оценкам, модель превосходит другие модели с открытым исходным кодом и соперничает с ведущими моделями с закрытым исходным кодом.
Мы представляем DeepSeek-Coder-V2, открытую языковую модель Mixture-of-Experts (MoE), которая достигает результатов, сопоставимых с GPT4-Turbo в задачах, связанных с кодом. Модель была дообучена на 6 триллионах токенов и улучшила свои способности в программировании и математическом рассуждении, сохраняя при этом производительность в общих языковых задачах. DeepSeek-Coder-V2 поддерживает 338 языков программирования и 32К контекст.
Всего параметров: 236B, активных: 21B
Хостинг осуществляется разработчиком DeepSeek, который отмечает, что ваши данные могут быть залогированы и использованы для тренировки.
Модели MistralAI: опенсорс + закрытые Tiny, Small, Medium
Закрытые, предоставляемые по API нейросети от компании Mistral, известной своими опенсорс моделями. Mistral Medium по оценкам производителя в работе сравнима с Claude 2 и GPT 4. Также здесь присутствуют ссылки на её оригинальные опенсорс модели.
Передовая языковая модель Mistral для программирования. Codestral специализируется на задачах с низкой задержкой и высокой частотой, таких как заполнение пропусков в коде (FIM), исправление кода и генерация тестов.
Mistral: Mistral Large 2 (версия 2411)
Mistral Large 2 2411 - это обновление Mistral Large 2.
Модель свободно владеет английским, французским, испанским, немецким и итальянским языками с высокой грамматической точностью, а её большое контекстное окно позволяет точно извлекать информацию из объёмных документов. Поддерживает вызов tools в стандартном OpenAI формате, см. Документацию.
Ministral 8B
Ministral 8B - это модель с 8 миллиардами параметров, отличающаяся уникальным чередующимся паттерном внимания с скользящим окном для более быстрого и эффективного по памяти вывода.
Увы, не очень хороша в русском языке. Поддерживает вызов tools в стандартном OpenAI формате, см. Документацию.
Mistral: Mistral NeMo 12B
Mistral AI представила Mistral NeMo, 12-миллиардную модель, разработанную в сотрудничестве с NVIDIA. Mistral NeMo предлагает большой контекст до 128 тысяч токенов.
Модель тренировалась на многоязычных данных, и, что довольно приятно, графики включают в себя оценки эффективности на русском языке.
Наша новость на Хабре: https://habr.com/ru/news/829822/ Поддерживает вызов tools в стандартном OpenAI формате, см. Документацию.
Mistral: Mixtral 8x22B Instruct
Официальный Instruct-файнтюн Mistral для версии Mixtral 8x22B. Он использует 39 миллиардов активных параметров из 141 миллиарда, обеспечивая беспрецедентную экономическую эффективность для своего размера.
Mistral: Mistral Large 2
Это флагманская модель Mistral AI, Mistral Large 2 (версия mistral-large-2407). Она основана на прототипе с закрытым исходным кодом и превосходно справляется с рассуждениями, кодом, JSON, чатом и многим другим.
Mistral Medium
Это флагманская модель Mistral AI с закрытым исходным кодом. Он основан на прототипе с закрытым исходным кодом и превосходно справляется с рассуждениями, кодом, JSON, чатом и многим другим. В тестах он сравнивается со многими флагманскими моделями других компаний.
Mistral Small
В настоящее время эта модель оснащена Mixtral-8X7B-v0.1, редкой смесью экспертной модели с 12B активными параметрами. Он лучше рассуждает, демонстрирует больше возможностей, может создавать код и рассуждать о нем, а также является многоязычным, поддерживая английский, французский, немецкий, итальянский и испанский языки.
Mistral Tiny
Эта модель в настоящее время работает на базе Mistral-7B-v0.2 и включает в себя «лучшую» тонкую настройку, чем Mistral 7B , вдохновленную опенсорсом. Его лучше всего использовать для больших задач пакетной обработки, где стоимость является важным фактором, но возможности рассуждения не имеют решающего значения.
Mistral: Mixtral 8x7B Instruct
Предварительно обученная генеративная разреженная смесь экспертов от Mistral AI для использования в чате и инструкциях. Включает 8 экспертов (сети прямого распространения) для 47B параметров.
Mistral: Mistral Small 3.1 24B
Mistral Small 3.1 24B Instruct - это усовершенствованная версия модели Mistral Small 3 (2501), обладающая 24 миллиардами параметров и расширенными мультимодальными возможностями.
Mistral: Mistral Small 3
Mistral Small 3 - это языковая модель с 24 миллиардами параметров, оптимизированная для выполнения типовых задач ИИ с низкой задержкой. Выпущенная под лицензией Apache 2.0, она представлена как в предварительно обученной версии, так и в версии, настроенной на выполнение инструкций, предназначенных для эффективного локального развертывания.
Модель достигает 81% точности в тестировании MMLU и демонстрирует результаты, сопоставимые с более крупными моделями, такими как Llama 3.3 70B и Qwen 32B, при этом работая в три раза быстрее на аналогичном оборудовании.
Mistral 7B Instruct v0.3
Команда Mistral AI представила Mistral 7B — открытую языковую модель из 7,3 миллиардов параметров, которая превосходит вдвое большую модель Llama 2 13B на всех бенчмарках. При этом Mistral 7B достигает сравнимых результатов с Code Llama 2 в задачах генерации и исправления кода, хотя она не дообучалась специально для этих задач. Mistral 7B удалось достичь такого результата благодаря grouped-query механизму внимания и скользящему окну внимания (sliding window attention) при обучении на длинных последовательностях.
29 мая модель обновлена до версии 0.3
Вердикт автора VseGPT: на английском справляется относительно неплохо, на русском сильно хуже. Но цена за 1000 символов очень низкая.
Модели Cohere: с фокусом на RAG, function calling, tools
Модели от Cohere с фокусом на RAG, function calling, tools.
Доступны в виде OpenSource версий, но у нас предоставляются через API с модерацией. Используя данные модели, вы соглашаетесь с ToS Cohere
Модель и ID
Руб за 1000 символов входных данных
Руб за 1000 символов генерации модели
Размер конте кста
Дата обнов ления
Авто моде ра ция
Cohere: Command R+ (август 2024) ? cohere/command-r-plus-08-2024 Базовый+GPT-4общие вопросы и ролеплей
0.38
1.5
128000
31 авг 24
нет
Cohere: Command R (август 2024) ? cohere/command-r-08-2024 общие вопросы и ролеплей
Cohere: Command R7B (12-2024) ? cohere/command-r7b-12-2024 За вызов: 0.005 р.
0.01
0.025
128000
16 дек 24
нет
Cohere: Command R+ (август 2024)
command-r-plus-08-2024 - это обновление Command R+ с примерно на 50% более высокой пропускной способностью и на 25% меньшей задержкой по сравнению с предыдущей версией Command R+
Cohere: Command R (август 2024)
command-r-08-2024 - это обновление Command R с улучшенной производительностью для многоязычной генерации с дополнением извлечения (RAG) и использования инструментов. В более широком смысле, она лучше справляется с математикой, кодом и рассуждениями и конкурентоспособна с предыдущей версией более крупной модели Command R+.
Cohere: Command R+
Command R+ — это новый масштабируемый LLM от Cohere с расширенными возможностями извлечения дополненной генерации (RAG), предназначенный для минимизации неточностей и обеспечения цитирования, что делает его идеальным для использования в бизнесе.
Анонс: https://txt.cohere.com/command-r-plus-microsoft-azure/ Поддерживает вызов tools в стандартном OpenAI формате, см. Документацию.
Cohere: Command R
Command-R — это диалоговая модель, основанная на выполнении инструкций, которая выполняет языковые задачи более качественно, более надежно и с более длинным контекстом, чем предыдущие модели. Его можно использовать для сложных рабочих процессов, таких как генерация кода, расширенная генерация извлечения (RAG), использование инструментов и агентов.
Анонс: https://txt.cohere.com/command-r/
Cohere: Command R7B (12-2024)
Command R7B (12-2024) - это небольшое, быстрое обновление модели Command R+, выпущенное в декабре 2024 года. Она отлично справляется с RAG, использованием инструментов, агентами и подобными задачами, требующими сложных рассуждений и множества этапов.
Модели Qwen – опенсорс модели от Tongyi Qianwen (Alibaba)
Серия языковых моделей от Tongyi Qianwen (Alibaba group, Китай).
Старшие модели показывают неплохое знание русского языка – но рекомендуется ставить температуру пониже (около 0.2) и явно прописывать «отвечать на русском языке».
QwQ - это модель рассуждений серии Qwen. По сравнению с обычными моделями, настроенными на инструкции, QwQ, способная к мышлению и рассуждению, может достичь значительно улучшенной производительности в последующих задачах, особенно в сложных проблемах. QwQ-32B - это модель рассуждений среднего размера, способная достигать конкурентоспособной производительности по сравнению с современными моделями рассуждений, такими как DeepSeek-R1, o1-mini.
Данный вариант быстрый, до 300 токенов с секунду
Qwen2.5 72B Instruct (с поддержкой structured outputs)
Версия с поддержкой structured outputs Поддерживает вызов structure outputs в стандартном OpenAI формате, см. Документацию.
Qwen: QwQ 32B Preview
QwQ-32B-Preview - это экспериментальная исследовательская модель, направленная на развитие возможностей ИИ в области рассуждений, разработанная командой Qwen.
Администрация: для русского языка рекомендуем пониженную температуру, около 0.3-0.7
Как предварительная версия, она демонстрирует многообещающие аналитические способности, но имеет несколько важных ограничений:
- Смешение языков и переключение кодов: Модель может смешивать языки или неожиданно переключаться между ними, что влияет на ясность ответов.
- Рекурсивные циклы рассуждений: Модель может входить в циклические паттерны рассуждений, приводящие к длительным ответам без окончательного вывода.
- Безопасность и этические соображения: Модель требует усиленных мер безопасности для обеспечения надежной и безопасной работы, и пользователи должны проявлять осторожность при её развертывании.
- Ограничения производительности и тестирования: Модель отлично справляется с математикой и программированием, но имеет возможности для улучшения в других областях, таких как здравый смысл и понимание нюансов языка.
Qwen2.5 Coder 32B Instruct
Qwen2.5-Coder - это новейшая серия специализированных языковых моделей Qwen для работы с кодом (ранее известных как CodeQwen). Qwen2.5-Coder предлагает следующие улучшения по сравнению с CodeQwen1.5:
Значительные улучшения в генерации кода, логическом анализе кода и исправлении ошибок.
Более комплексная основа для практических приложений, таких как Код-агенты. Не только улучшение возможностей программирования, но и сохранение сильных сторон в математике и общих компетенциях.
Qwen2.5 7B Instruct
Qwen2.5 7B - это новейшая серия больших языковых моделей Qwen.
Многоязычная поддержка более 29 языков, включая китайский, английский, французский, испанский, португальский, немецкий, итальянский, русский, японский, корейский, вьетнамский, тайский, арабский и другие.
Использование этой модели регулируется ЛИЦЕНЗИОННЫМ СОГЛАШЕНИЕМ Tongyi Qianwen.
Для работы с русским рекомендуется: пониженная температура 0.5, а также 0 штрафы за присутствие и частоту.
Qwen2.5 72B Instruct
Qwen2.5 72B - это последняя серия больших языковых моделей Qwen. Qwen2.5 приносит следующие улучшения по сравнению с Qwen2:
Значительно больше знаний и значительно улучшенные возможности в кодировании и математике благодаря нашим специализированным экспертным моделям в этих областях.
Значительные улучшения в следовании инструкциям, генерации длинных текстов (более 8 тысяч токенов), понимании структурированных данных (например, таблиц) и генерации структурированных выходных данных, особенно JSON. Более устойчива к разнообразию системных подсказок, улучшая реализацию ролевых игр и настройку условий для чат-ботов.
Поддержка длинного контекста до 128 тысяч токенов и возможность генерировать до 8 тысяч токенов.
Многоязычная поддержка более 29 языков, включая китайский, английский, французский, испанский, португальский, немецкий, итальянский, русский, японский, корейский, вьетнамский, тайский, арабский и другие.
Использование этой модели регулируется ЛИЦЕНЗИОННЫМ СОГЛАШЕНИЕМ Tongyi Qianwen.
Qwen 2 72B Instruct
Большая модель Qwen, превосходящая по разным показателям Llama3 70B.
Неплохо работает с русским языком.
Qwen: Qwen-Max
Qwen-Max обеспечивает наилучшую производительность вывода среди моделей Qwen, особенно для сложных многоэтапных задач Поддерживает вызов tools в стандартном OpenAI формате, см. Документацию.
Qwen: Qwen-Plus
Qwen-Plus предоставляет сбалансированное сочетание производительности, скорости и стоимости. Поддерживает вызов tools в стандартном OpenAI формате, см. Документацию.
Qwen: Qwen-Turbo
Qwen-Turbo обеспечивает высокую скорость и низкую стоимость, подходит для простых задач Поддерживает вызов tools в стандартном OpenAI формате, см. Документацию.
Модели Amazon
Серия языковых моделей от Amazon (начиная с декабря 2024).
Модели отличаются большим контекстом (до 300 000 токенов)
Модель и ID
Руб за 1000 символов входных данных
Руб за 1000 символов генерации модели
Размер конте кста
Дата обнов ления
Авто моде ра ция
Amazon: Nova Pro 1.0 ? amazon/nova-pro-v1 Базовый+GPT-4
Amazon: Nova Micro 1.0 ? amazon/nova-micro-v1 tools
0.012
0.03
128000
6 дек 24
да
Amazon: Nova Pro 1.0
Amazon Nova Pro 1.0 - это многофункциональная мультимодальная модель от Amazon, ориентированная на обеспечение сочетания точности, скорости и экономичности для широкого спектра задач. По состоянию на декабрь 2024 года она достигает передовых результатов в ключевых тестах, включая визуальные вопросы и ответы (TextVQA) и понимание видео (VATEX).
Amazon Nova Pro демонстрирует высокие способности в обработке как визуальной, так и текстовой информации, а также в анализе финансовых документов.
Amazon: Nova Lite 1.0
Amazon Nova Lite 1.0 - это очень бюджетная мультимодальная модель от Amazon. Поддерживает вызов tools в стандартном OpenAI формате, см. Документацию.
Amazon: Nova Micro 1.0
Amazon Nova Micro 1.0 - это текстовая модель, обеспечивающая самую низкую задержку ответов среди семейства моделей Amazon Nova при очень низкой стоимости. С контекстной длиной в 128 тысяч токенов и оптимизацией для скорости и экономичности, Amazon Nova Micro отлично справляется с такими задачами, как суммаризация текста, перевод, классификация контента, интерактивный чат и мозговой штурм. Она обладает базовыми способностями к математическим вычислениям и программированию. Поддерживает вызов tools в стандартном OpenAI формате, см. Документацию.
Российские модели Сайга и Вихрь – альтернатива YaGPT и GigaChat
Сайга – третья модель, сфокусированная на российском языке после моделей от Яндекса (YaGPT) и Сбера (GigaChat) – и сравнима с ними. Подробнее об истории возникновения – в нашей статье на Хабре: https://habr.com/ru/articles/767588/
Также здесь представлены модели от команды VikhrModels, которая также с 2024 года начала дотренировывать опенсорсные модели на русских данных. Они также рекомендуются к знакомству – по метрикам они не хуже gpt-3.5 и могут приближаться к gpt-4o-mini.
Серия моделей OMF включает в себя «холодный старт» – т.е. загрузку по мере запроса. Если на первый запрос вы не получили ответ по таймауту, просто подождите 1–2 минуты и попробуйте снова – весьма вероятно, что модель загрузится.
Модель и ID
Руб за 1000 символов входных данных
Руб за 1000 символов генерации модели
Размер конте кста
Дата обнов ления
Авто моде ра ция
SAINEMO-reMIX (микс русскоязычных моделей) ? OMF-R-Moraliane/SAINEMO-reMIX Open Models FanЗа вызов: 0.15 р.ролеплейHugging Face
0.10
0.10
16000
16 дек 24
нет
Сайга MistralNemo 12B v1 (российский разработчик) ? OMF-R-IlyaGusev/saiga_nemo_12b Open Models FanЗа вызов: 0.15 р.ролеплейHugging Face
0.10
0.10
8192
3 ноя 24
нет
Vikhr-Nemo-12B-Instruct-R-21-09-24 (российский разработчик) ? OMF-R-Vikhr-Nemo-12B-Instruct-R-21-09-24 Open Models FanЗа вызов: 0.15 р.Hugging Face
0.10
0.10
16000
22 сен 24
нет
Vikhr-Llama3.1-8B-Instruct-R-21-09-24 (российский разработчик) ? OMF-R-Vikhr-Llama3.1-8B-Instruct-R-21-09-24 Open Models FanЗа вызов: 0.10 р.Hugging Face
0.10
0.10
16000
22 сен 24
нет
Saiga/Llama3 8B (российский разработчик) ? OMF-R-IlyaGusev/saiga_llama3_8b Open Models FanЗа вызов: 0.10 р.Hugging Face
0.10
0.10
8192
19 июл 24
нет
SAINEMO-reMIX (микс русскоязычных моделей)
Модель представляет микс из Сайги, Вихрь, и ряда англоязычных моделей с целью получить хорошую модель для русскоязычного ролеплея.
Модель показала высокие результаты в ролеплей рейтинге.
Сайга MistralNemo 12B v1 (российский разработчик)
Версия Сайги на базе MistralNemo 12B. Автор: Илья Гусев
Уникальная фича модели — расцензурированность и ориентация на role-play. Обучена abliterated версии Немо, и из и SFT, и SimPO датасетов вычищены отказы.
К сожалению, ввиду особенностей инференса, не даем гарантий, что роль system упоминается в темплейте корректно. В случае проблем исключите роль system из чата.
Vikhr-Nemo - это наша флагманская унимодальная LLM (Large Language Model) представляющая из себя улучшенную версию mistralai/Mistral-Nemo-Instruct-2407 командой VikhrModels, адаптированную преимущественно для русского и английского языков. Для ее обучения мы использовали несколько этапов включающих в себя SFT и SMPO - нашу собственную вариацию DPO, подробнее читайте в секции "Как эта модель создавалась".
Модель оптимизированна для различных вариантов использования, включая ризонинг, суммаризацию, код, roleplay, поддержание диалога. Vikhr-Nemo обладает возможностью многоязычной генерации, и высокопроизводительными возможностями RAG. Модель иммет лучшие оценки среди прочих на наших инструктивных и RAG бенчарках и, поэтому, мы верим, что в некоторых задачах (например, RAG) может быть не хуже gpt-4o-mini от OpenAI.
Vikhr-Llama3.1 - это унимодальная LLM (Large Language Model) на 8B параметров представляющая из себя улучшенную версию meta-llama/Meta-Llama-3.1-8B-Instruct командой VikhrModels, адаптированную преимущественно для русского и английского языков. Для обучения использовались несколько этапов включающих в себя SFT и SMPO.
Модель оптимизирована для различных вариантов использования, включая ризонинг, суммаризацию, код, roleplay, поддержание диалога. Vikhr-Llama обладает возможностью многоязычной генерации, и высокопроизводительными возможностями RAG. Модель иммет лучшие оценки среди прочих на наших инструктивных и RAG бенчарках и, поэтому, мы верим, что во многих задачах может быть лучше чем gpt-3.5-turbo от OpenAI.
Saiga/Llama3 8B (российский разработчик)
Версия Сайги для LLama3 8B
Опенсорс модели
Различные опенсорс модели. Эти модели в первую очередь тренировались на английском языке (учтите это), но и на русском могут показывать неплохое качество. В отличие от коммерческих моделей они, как правило, не используют автомодерацию запросов по этическому признаку. Читайте описания к модели по знаку ?". Как правило, модели с большим числом параметров (70B против 7B) более точны и лучше рассуждают, но и более дороги в обработке.
В тегах указано, на чем специализируется модель. Если тег не указан – модель многоцелевая, т.е. чаще всего обычное следование инструкциям, но лучше прочитать описание.
Если на русский запрос они выдают не очень хороший результат, попробуйте обращаться к ним на английском, или попробуйте наши translate-версии (ниже). Особенно рекомендуется translate-версии для ролеплейных моделей (если вы не пишете на английском)
Модель и ID
Руб за 1000 символов входных данных
Руб за 1000 символов генерации модели
Размер конте кста
Дата обнов ления
Авто моде ра ция
Extract Text (конвертация файлов DOCX, PDF в текст) ? utils/extract-text-1.0 За вызов: 0.50 р.конвертация документов
0.0
0.0
2000
16 фев
нет
Llama 3.3 70B Instruct (быстрая, более 200 токенов в секунду) ? meta-llama/llama-3.3-70b-instruct-fast
0.10
0.15
128000
14 фев
нет
EVA Qwen2.5 72B v0.2 (online) ? eva-unit-01/eva-qwen-2.5-72b-online За вызов: 3.45 р.ролеплей
0.60
0.80
16384
25 янв
нет
Llama 3.3 70B Instruct (online) ? meta-llama/llama-3.3-70b-instruct-online За вызов: 3.45 р.
Extract Text (конвертация файлов DOCX, PDF в текст)
Вызов позволяет конвертировать файлы DOCX, PDF в текст через API.
(Ввиду сложности процесса мы не гарантируем точность результатов в 100% случаев)
Пример вызова доступен на странице документации API.
Llama 3.3 70B Instruct (быстрая, более 200 токенов в секунду)
Meta Llama 3.3 - это многоязычная языковая модель большого масштаба (LLM), предварительно обученная и настроенная на выполнение инструкций, размером 70B (текст на входе/текст на выходе). Текстовая модель Llama 3.3, настроенная на выполнение инструкций, оптимизирована для многоязычных диалоговых сценариев использования и превосходит многие доступные модели с открытым и закрытым исходным кодом по общепринятым отраслевым показателям.
По бенчмаркам сопоставима с Llama 3.1 405B
Модель использует квантизацию bf16
EVA Qwen2.5 72B v0.2 (online)
Специализированная модель для ролевых игр и написания историй, полная тонкая настройка Qwen2.5-72B на основе смеси синтетических и естественных данных.
Использует смесь данных Celeste 70B 0.1, значительно расширенную для улучшения универсальности, креативности и "характера" итоговой модели.
Отвечает с учетом онлайн-источников - за это берется дополнительная плата в размере вызова.
Llama 3.3 70B Instruct (online)
Meta Llama 3.3 - это многоязычная языковая модель большого масштаба (LLM), предварительно обученная и настроенная на выполнение инструкций, размером 70B (текст на входе/текст на выходе). Текстовая модель Llama 3.3, настроенная на выполнение инструкций, оптимизирована для многоязычных диалоговых сценариев использования и превосходит многие доступные модели с открытым и закрытым исходным кодом по общепринятым отраслевым показателям.
По бенчмаркам сопоставима с Llama 3.1 405B
Модель использует квантизацию bf16
Отвечает с учетом онлайн-источников - за это берется дополнительная плата в размере вызова.
MiniMax: MiniMax-01
В серии MiniMax-01 мы совершили смелую инновацию: впервые в крупном масштабе мы внедрили новый механизм Lightning Attention, предлагая альтернативу традиционной архитектуре Transformer. Эта модель насчитывает впечатляющие 456 миллиардов параметров, из которых 45,9 миллиардов параметров активируются при каждом выводе. Её общая производительность находится на уровне ведущих мировых моделей, при этом она эффективно обрабатывает самую длинную в мире контекстную длину до 4 миллионов токенов (в рамках сервиса доступен контекст до 1 млн токенов)
Sao10K: Llama 3.3 Euryale 70B
Euryale L3.3 70B - это модель от Sao10k, ориентированная на креативную ролевую игру. Она является преемником Euryale L3 70B v2.2.
EVA Llama 3.33 70b
EVA Llama 3.33 70b - это специализированная модель для ролевых игр и написания историй. Это полнопараметрическая точная настройка Llama-3.3-70B-Instruct на основе смеси синтетических и естественных данных.
Она использует смесь данных Celeste 70B 0.1, значительно расширяя её для улучшения универсальности, креативности и "характера" результирующей модели.
Llama 3.3 70B Instruct (с поддержкой structured outputs)
Версия Llama 3.3 70B с поддержкой structured outputs Поддерживает вызов structure outputs в стандартном OpenAI формате, см. Документацию.
xAI: Grok 2 1212
Грок 2 1212 представляет значительные улучшения в точности, соблюдении инструкций и многоязычной поддержке, что делает его мощным и гибким выбором для разработчиков, ищущих легко управляемую, интеллектуальную модель. Поддерживает вызов tools в стандартном OpenAI формате, см. Документацию.
Llama 3.3 70B Instruct
Meta Llama 3.3 - это многоязычная языковая модель большого масштаба (LLM), предварительно обученная и настроенная на выполнение инструкций, размером 70B (текст на входе/текст на выходе). Текстовая модель Llama 3.3, настроенная на выполнение инструкций, оптимизирована для многоязычных диалоговых сценариев использования и превосходит многие доступные модели с открытым и закрытым исходным кодом по общепринятым отраслевым показателям.
По бенчмаркам сопоставима с Llama 3.1 405B
Модель использует квантизацию bf16
EVA Qwen2.5 72B v0.2
Специализированная модель для ролевых игр и написания историй, полная тонкая настройка Qwen2.5-72B на основе смеси синтетических и естественных данных.
Использует смесь данных Celeste 70B 0.1, значительно расширенную для улучшения универсальности, креативности и "характера" итоговой модели.
NVIDIA: Llama 3.1 Nemotron 70B Instruct
Новая модель Nemotron от NVidia.
К сожалению, русский у этой модели не очень хорош.
Rocinante 12B
Rocinante 12B разработан для увлекательного повествования и богатой прозы.
Ранние тестировщики сообщали о:
Расширенном словарном запасе с уникальным и выразительным выбором слов
Улучшенной креативности для создания ярких повествований
Наполненных приключениями и захватывающих историях
Grok Beta от xAI
Grok Beta - это передовая языковая модель xAI с современными возможностями рассуждения, наиболее подходящая для сложных и многоэтапных задач. Поддерживает вызов tools в стандартном OpenAI формате, см. Документацию.
Llama 3.2 90B Instruct
Новая модель LLama 3.2 90B
Llama 3.2 3B Instruct
Llama 3.2 3B - это многоязычная модель большого языка с 3 миллиардами параметров, оптимизированная для продвинутых задач обработки естественного языка, таких как генерация диалогов, рассуждения и обобщение. Разработанная с использованием новейшей архитектуры трансформеров, она поддерживает восемь языков, включая английский, испанский и хинди, и адаптируема для дополнительных языков.
Обученная на 9 триллионах токенов, модель Llama 3.2B отлично справляется с выполнением инструкций, сложными рассуждениями и использованием инструментов. Её сбалансированная производительность делает её идеальной для приложений, требующих точности и эффективности в генерации текста в многоязычных средах.
Mistral Nemo 12B Starcannon
Это модель для креативных ролевых игр и написания историй, использующая nothingiisreal/mn-celeste-12b в качестве основы и объединенная с intervitens/mini-magnum-12b-v1.1 с помощью метода TIES.
Хотя в целом модель больше похожа на Magnum, она остается очень креативной, с приятным стилем письма. Рекомендуется для людей, желающих большего разнообразия, чем Magnum, и в то же время более многословной прозы, чем Celeste.
Llama 3.1 Euryale 70B v2.2
Euryale L3.1 70B v2.2 - это модель, ориентированная на креативную ролевую игру, созданная Sao10k. Она является преемником Euryale L3 70B v2.1, но уже на базе модели Llama 3.1, которая значительно лучше работает с русским языком.
Hermes 3 405B Instruct
Гермес 3 - это универсальная языковая модель со многими улучшениями по сравнению с Гермесом 2, включая продвинутые агентные возможности, гораздо лучшее ролевое взаимодействие, рассуждение, многоходовую беседу, согласованность длинного контекста и улучшения по всем направлениям.
Гермес 3 405B - это полнопараметрическая доводка базовой модели Llama-3.1 405B уровня передовых технологий, ориентированная на согласование языковых моделей с пользователем, с мощными возможностями управления и контроля, предоставляемыми конечному пользователю.
Mistral Nemo 12B Celeste
Специализированная модель для написания историй и ролевых игр, основанная на Mistral's NeMo 12B Instruct. Дообучена на отобранных наборах данных, включая Reddit Writing Prompts и Opus Instruct 25K.
Эта модель превосходно справляется с творческим письмом. Она демонстрирует замечательную универсальность разного рода сценариях, с сильными возможностями управления вне роли (OOC), что позволяет точно контролировать направление повествования и поведение персонажей.
Llama 3.1 405B Instruct
Давно ожидаемая модель Llama3 405B.
По результатам бенчмарков сравнима с GPT-4o и Sonnet.
Поддерживает вызов tools в стандартном OpenAI формате, см. Документацию.
Magnum 72B
От создателя Голиафа, Magnum 72B - это первая модель из нового семейства, разработанного для достижения уровня прозы моделей Claude 3, в частности Opus и Sonnet.
Модель основана на Qwen2 72B и обучена на 55 миллионах токенов тщательно отобранных данных ролевых игр (RP).
NVIDIA Nemotron 4 340B Instruct
Nemotron-4-340B-Instruct - это англоязычная модель чата, оптимизированная для генерации синтетических данных. Эта крупная языковая модель (LLM) является доработанной версией Nemotron-4-340B-Base, разработанной для одно- и многоходовых сценариев чата с контекстной длиной 4096 токенов.
Базовая модель была предварительно обучена на 9 триллионах токенов из разнообразных английских текстов, более 50 естественных языков и более 40 языков программирования. Инструктивная модель прошла дополнительные этапы настройки:
В процессе выравнивания использовалось примерно 20 тыс. образцов, аннотированных человеком, в то время как 98% данных для дообучения были синтетически сгенерированы.
Модель умеет работать с русским языком
Euryale-v2.1-70B
Модель, ориентированная на креативную ролевую игру от Sao10k.
- Лучшее соблюдение подсказок.
- Лучшая анатомия / пространственное восприятие.
- Гораздо лучше адаптируется к уникальным и нестандартным форматам / форматам ответов.
- Очень креативная, много уникальных идей.
- Без фильтров
Базируется на Llama3 70B
Llama 3 Lumimaid 70B
Llama 3 70B finetune, созданный на основе ролевых данных и расширенным контекстом. Находясь в балансе между ERP и RP, Lumimaid был разработан, чтобы быть серьезным, но без цензуры, когда это необходимо.
Для повышения общего уровня интеллекта и возможностей чата около 40 % обучающих данных не были ролевыми. Это обеспечивает широкий доступ к знаниям, но при этом ролевая игра остается основным вариантом применения.
Используется int4 квантизация для обработки запросов.
Phi-3 Mini Instruct 3.8B
Phi-3 Mini — это мощная модель размером 3.8B, предназначенная для углубленного понимания языка, рассуждения и выполнения инструкций. Оптимизированная за счет контролируемой тонкой настройки и настройки предпочтений, она превосходно справляется с задачами, связанными со здравым смыслом, математикой, логическим рассуждением и обработкой кода.
На момент выпуска Phi-3 Medium продемонстрировала самые современные характеристики среди легких моделей. Эта модель обучена на автономном наборе данных с конечной датой октября 2023 года.
Phi-3 Medium Instruct 14B
Phi-3 Medium — это мощная модель с 14 миллиардами параметров, предназначенная для углубленного понимания языка, рассуждения и выполнения инструкций. Оптимизированная за счет контролируемой тонкой настройки и настройки предпочтений, она превосходно справляется с задачами, связанными со здравым смыслом, математикой, логическим рассуждением и обработкой кода.
На момент выпуска Phi-3 Medium продемонстрировала самые современные характеристики среди легких моделей. В тесте MMLU-Pro модель даже приблизилась к уровню производительности Llama3 70B.
Llama 3 Lumimaid 8B (large-context)
Llama 3 8B finetune, созданный на основе ролевых данных и расширенным контекстом. Находясь в балансе между ERP и RP, Lumimaid был разработан, чтобы быть серьезным, но без цензуры, когда это необходимо.
Для повышения общего уровня интеллекта и возможностей чата около 40 % обучающих данных не были ролевыми. Это обеспечивает широкий доступ к знаниям, но при этом ролевая игра остается основным вариантом применения.
LLaMA v3 70B Instruct
Топовая опенсорс модель LLaMA v3 70B - по метрикам сравнимая с Claude 3 Sonnet.
LLaMA v3 8B Instruct
Последняя базовая опенсорс модель Llama v3 размером 8B.
По тестам превосходит предыдущего гиганта Llama2 70B.
WizardLM-2 7B
WizardLM-2 7B — это уменьшенный вариант последней модели Wizard от Microsoft AI. Она самая быстрая и обеспечивает производительность, сопоставимую с существующими ведущими моделями с открытым исходным кодом, в 10 раз более крупными.
Это усовершенствованная версия Mistral 7B Instruct , использующая ту же технику, что и WizardLM-2 8x22B .
WizardLM-2 8x22B
WizardLM-2 8x22B — самая совершенная модель Wizard от Microsoft AI. Она демонстрирует высокую конкурентоспособность по сравнению с ведущими проприетарными моделями и неизменно превосходит все существующие современные модели с открытым исходным кодом.
Databricks: DBRX 132B Instruct
DBRX - это новая открытая модель большого языка, разработанная Databricks. При 132B она превосходит существующие открытые LLM, такие как Llama 270B и Mixtral-8x7B, на стандартных отраслевых бенчмарках для понимания языка, программирования, математики и логики.
Она использует архитектуру MoE с большим количеством экспертов. 36B параметров активны на любом вводе. Она был предварительно обучена на 12T токенах текста и кода. По сравнению с другими открытыми моделями MoE, такими как Mixtral-8x7B и Grok-1, DBRX использует большее количество меньших экспертов.
Midnight Rose 70B
Midnight Rose - это уникальная нейросетевая модель, созданная специально для написания захватывающих историй и увлекательных ролевых игр. Она является преемницей таких известных моделей, как Rogue Rose и Aurora Nights, объединяя в себе лучшие качества каждой из них.
Благодаря сложному "генеалогическому древу", Midnight Rose унаследовала выдающиеся способности своих предшественников - более ранних версий Midnight Rose и Wizard Tulu Dolphin 70B. Эта модель была тщательно настроена командой sophosympatheia, чтобы производить объемные и детализированные тексты, которые подарят вам незабываемые впечатления от чтения или игры.
Nous Hermes 2 Mixtral 8x7B DPO — это новая флагманская модель Nous Research, обученная на Mixtral 8x7B MoE LLM .
Модель была обучена на более чем 1 000 000 записей, в основном данных, сгенерированных GPT-4 , а также других высококачественных данных из открытых наборов данных в среде ИИ, что позволило достичь высочайшего уровня производительности при выполнении различных задач.
Dolphin 2.6 Mixtral 8x7B
Это файнтюн Mixtral-8x7b на данных до 16к токенов. Он отлично справляется с задачами кодирования благодаря обширным тренировкам с задачами кодогенерации и известен своим послушанием, хотя у него отсутствует настройка DPO.
OpenHermes 2.5 Mistral 7B
OpenHermes 2 обучен на 900 тыс. инструкций и превосходит все предыдущие версии Hermes 13B и ниже и соответствует 70B в некоторых тестах.
OpenHermes 2.5 - это продолжение модели OpenHermes 2, обученное на дополнительных наборах данных кода. Потенциально самым интересным результатом обучения с хорошим соотношением (около 7–14% от общего набора данных) инструкций по коду было то, что они улучшили несколько тестов, не связанных с кодом, включая набор TruthfulQA, AGIEval и GPT4All. Тем не менее, это снизило оценку теста BigBench, но в целом чистый прирост значителен.
Toppy M 7B
Объединение нескольких моделей для получения эффективно модели для ролевого взаимодействия. Базируется на Mistral 7B.
OpenChat 7B
OpenChat - это инновационная библиотека языковых моделей с открытым исходным кодом, настроенная с помощью C-RLFT - стратегии, вдохновленной автономным обучением с подкреплением.
По бенчмаркам разработчика, модель сравнима по уровню с ChatGPT марта 2023 года.
Модель довольно хорошо работает на русском даже без переводчика; рекомендуемые параметры: temperature около 0.7, top_p = 0.95. Временно испытывает проблемы при установке ненулевого "штрафа за присутствие" и "штрафа за частоту"
https://huggingface.co/openchat/openchat_3.5
Mythalion 13B
Модель, хорошо подходящая для ролевого взаимодействия.
Идеально для английского языка; для русского будет чуть хуже.
Gryphe: MythoMax L2 13B
Из серии Mytho моделей, сделана поверх Llama2 13b
Очень популярна на Западе для самых разных запросов, включая ролеплей.
Очень низкая цена - 13B модель по цене 7B.
Translate-версии опенсорс моделей
Translate-версии опенсорс моделей. Одна из фишек нашего сервиса. Вы можете отправить запрос на русском, он будет автоматически переведен на английский и отправлен нейросети. Результат обработки (на английском) будет автоматически переведён на русский. Крайне полезна с учетом того, что опенсорс нейросети как правило в основном тренировались на английском языке и выдают на нем значительно лучшие результаты.
Magnum 72B (translate-версия) translate-alpindale/magnum-72b ролеплей
Весь вход переводится на английский язык.
Весь выход переводится на русский язык.
Это позволяет взаимодействовать с моделью "как бы на английском языке", который модель понимает лучше.
ВАЖНО: При работе с этой моделью ваши данные будут отсылаться в Google Translate или другому провайдеру перевода. Имейте это ввиду.
Mistral 7B Instruct v0.1 with Ru-En translation (beta)
Mistral 7B Instruct v0.1 с дополнительной функциональностью.
Весь вход переводится на английский язык.
Весь выход переводится на русский язык.
Это позволяет взаимодействовать с моделью "как бы на английском языке", который модель понимает лучше.
ВАЖНО: При работе с этой моделью ваши данные будут отсылаться в Google Translate или другому провайдеру перевода. Имейте это ввиду.
Самые свежие опенсорс модели Open Models Fan (OMF) (бета-тест)
Самые свежие опенсорс модели серии Open Models Fan (могут быть недоступны на Тестовом тарифе).
Особенности:
– Модели доступны для экспериментирования, а не для реальной автоматизации (но они также доступны через API). Поэтому, пожалуйста, используйте их вручную или на малом объеме автоматических запросов (до 500). Если вам нужно интенсивно работать с ними, рекомендуем развернуть их на собственном сервере. Если мы увидим большое число автоматических запросов от вас к этим моделям, мы оставляем за собой право временно заблокировать ваш аккаунт
– Следствие – мы берем плату за вызов и небольшую плату за входные и выходные символы. Таким образом, эти модели более выгодно использовать для долгого ролеплея с большим контекстом (если они это поддерживают)
– Скорость вывода – 10–40 токенов в секунду, в зависимости от размера модели.
– Модели 70B и выше поставляются в квантизации FP8 – создавая баланс между загрузкой серверов и качеством. В целом, падение качества по сравнению с FP16 и FP32 (оригинал) довольно небольшое.
– Размер контекста не гарантирован (в процессе выяснения у провайдера)
– Обычно опенсорсные файнтюны моделей в первую очередь предназначены для ролеплея и написания историй (часто – на английском, если не указано обратное). Для общих кейсов мы рекомендуем обычные модели.
– Серия моделей OMF включает в себя «холодный старт» – т.е. загрузку по мере запроса. Если на первый запрос вы не получили ответ по таймауту, просто подождите 1–2 минуты и попробуйте снова – весьма вероятно, что модель загрузится.
SAINEMO-reMIX (микс русскоязычных моделей) ? OMF-R-Moraliane/SAINEMO-reMIX Open Models FanЗа вызов: 0.15 р.ролеплейHugging Face
0.10
0.10
16000
16 дек 24
нет
EVA Qwen2.5-72B v0.1 ? OMF-EVA-Qwen2.5-72B-v0.1 Open Models FanЗа вызов: 0.50 р.ролеплей
0.25
0.25
8192
8 ноя 24
нет
Сайга MistralNemo 12B v1 (российский разработчик) ? OMF-R-IlyaGusev/saiga_nemo_12b Open Models FanЗа вызов: 0.15 р.ролеплейHugging Face
0.10
0.10
8192
3 ноя 24
нет
EVA Qwen2.5-72B v0.0 ? OMF-EVA-Qwen2.5-72B-v0.0 Open Models FanЗа вызов: 0.50 р.ролеплей
0.25
0.25
8192
3 ноя 24
нет
Qwen2.5-72B-Instruct-abliterated ? OMF-Qwen2.5-72B-Instruct-abliterated Open Models FanЗа вызов: 0.50 р.ролеплей и общие вопросыHugging Face
0.25
0.25
16000
16 окт 24
нет
MN-12B-Starcannon-v3 ? OMF-nothingiisreal/MN-12B-Starcannon-v3 Open Models FanЗа вызов: 0.20 р.ролеплейHugging Face
0.10
0.10
16000
25 сен 24
нет
Qwen2.5-Math-72B-Instruct ? OMF-Qwen/Qwen2.5-Math-72B-Instruct Open Models FanЗа вызов: 0.50 р.математикаHugging Face
0.25
0.25
16000
25 сен 24
нет
Vikhr-Nemo-12B-Instruct-R-21-09-24 (российский разработчик) ? OMF-R-Vikhr-Nemo-12B-Instruct-R-21-09-24 Open Models FanЗа вызов: 0.15 р.Hugging Face
0.10
0.10
16000
22 сен 24
нет
Vikhr-Llama3.1-8B-Instruct-R-21-09-24 (российский разработчик) ? OMF-R-Vikhr-Llama3.1-8B-Instruct-R-21-09-24 Open Models FanЗа вызов: 0.10 р.Hugging Face
0.10
0.10
16000
22 сен 24
нет
Qwen2 Math 72B Instruct ? OMF-Qwen/Qwen2-Math-72B-Instruct Open Models FanЗа вызов: 0.50 р.математикаHugging Face
0.25
0.25
16000
10 авг 24
нет
Vicuna 13B v1.5 (ретро) ? OMF-lmsys/vicuna-13b-v1.5 Open Models FanЗа вызов: 0.25 р.ретроролеплейHugging Face
0.10
0.10
4096
30 мар 23
нет
Smaug Qwen2 72B Instruct ? OMF-abacusai/Smaug-Qwen2-72B-Instruct Open Models FanЗа вызов: 0.50 р.ролеплей и общие вопросыHugging Face
0.25
0.25
16000
22 июл 24
нет
Tess v2.5.2 Qwen2 72B ? OMF-Tess-v2.5.2-Qwen2-72B Open Models FanЗа вызов: 0.50 р.Hugging Face
0.25
0.25
16000
19 июл 24
нет
MG-FinalMix-72B (Magnum-72B based) ? OMF-Undi95/MG-FinalMix-72B Open Models FanЗа вызов: 0.50 р.ролеплейHugging Face
0.25
0.25
16000
19 июл 24
нет
Sao10K: L3 8B Lunaris v1 ? OMF-sao10k/l3-8b-lunaris-v1 Open Models FanЗа вызов: 0.25 р.ролеплейHugging Face
0.10
0.10
8192
19 июл 24
нет
New Dawn Llama-3-70B 32K v1.0 ? OMF-New-Dawn-Llama-3-70B-32K-v1.0 Open Models FanЗа вызов: 0.50 р.ролеплейHugging Face
0.25
0.25
8192
19 июл 24
нет
TenyxChat-DaybreakStorywriter-70B ? OMF-DaybreakStorywriterXTenyxChat-70B Open Models FanЗа вызов: 0.50 р.ролеплей и общие вопросыHugging Face
0.25
0.25
8192
19 июн 24
нет
Kunoichi DPO v2 7B ? OMF-SanjiWatsuki/Kunoichi-DPO-v2-7B Open Models FanЗа вызов: 0.25 р.ролеплейHugging Face
0.10
0.10
8192
19 июн 24
нет
Smaug-Llama-3-70B-Instruct ? OMF-abacusai/Smaug-Llama-3-70B-Instruct Open Models FanЗа вызов: 0.50 р.ролеплей и общие вопросыHugging Face
0.25
0.25
8192
19 июл 24
нет
Suzume 8B ? OMF-lightblue/suzume-llama-3-8B-multilingual Open Models FanЗа вызов: 0.25 р.Hugging Face
0.10
0.10
8192
19 июл 24
нет
Saiga/Llama3 8B (российский разработчик) ? OMF-R-IlyaGusev/saiga_llama3_8b Open Models FanЗа вызов: 0.10 р.Hugging Face
0.10
0.10
8192
19 июл 24
нет
Forgotten Abomination Mistral 3 24B V2.2
Модель Mistral 3 24B, дотюненая на ролеплей.
Hamanasu QwQ 32B V2 RP
Размышляющая модель QwQ-32B, дотюненая на ролеплей.
QwQ 32B (abliterated)
Размышляющая модель QwQ-32B, дотюненая на выключение этических фильтров
SAINEMO-reMIX (микс русскоязычных моделей)
Модель представляет микс из Сайги, Вихрь, и ряда англоязычных моделей с целью получить хорошую модель для русскоязычного ролеплея.
Модель показала высокие результаты в ролеплей рейтинге.
EVA Qwen2.5-72B v0.1
Обновленная специализированная модель для ролевых игр и написания историй, файнтюн Qwen2.5-72B на смеси синтетических и естественных данных.
Использует набор данных Celeste 70B 0.1, значительно расширенный для улучшения универсальности, креативности и "характера" результирующей модели.
Примечания к версии 0.1: Обработанный заново набор данных (через Cahvay для 32B 0.2, использован также здесь), скорректированная конфигурация обучения для 8xH100 SXM. Значительные улучшения в следовании инструкциям, понимании длинного контекста и общей согласованности по сравнению с v0.0.
Сайга MistralNemo 12B v1 (российский разработчик)
Версия Сайги на базе MistralNemo 12B. Автор: Илья Гусев
Уникальная фича модели — расцензурированность и ориентация на role-play. Обучена abliterated версии Немо, и из и SFT, и SimPO датасетов вычищены отказы.
К сожалению, ввиду особенностей инференса, не даем гарантий, что роль system упоминается в темплейте корректно. В случае проблем исключите роль system из чата.
EVA Qwen2.5-72B v0.0
Специализированная модель для ролевых игр и написания историй, файнтюн Qwen2.5-72B на смеси синтетических и естественных данных.
Использует набор данных Celeste 70B 0.1, значительно расширенный для улучшения универсальности, креативности и "характера" результирующей модели.
Qwen2.5-72B-Instruct-abliterated
Файнтюн версии Qwen2.5-72B, который значительно реже отказывается отвечать.
MN-12B-Starcannon-v3
Ролеплейная модель Starcannon версия 3
Qwen2.5-Math-72B-Instruct
Месяц назад мы выпустили первую серию математических LLM - Qwen2-Math - из нашего семейства Qwen. Сегодня мы обновили его и сделали открытым исходный код серии Qwen2.5-Math, включая базовые модели Qwen2.5-Math-1.5B/7B/72B, модели, настроенные на инструкции Qwen2.5-Math-1.5B/7B/72B-Instruct, и математическую модель вознаграждения Qwen2.5-Math-RM-72B.
В отличие от серии Qwen2-Math, которая поддерживает только использование Chain-of-Thought (CoT) для решения математических задач на английском языке, серия Qwen2.5-Math расширена для поддержки использования как CoT, так и Tool-integrated Reasoning (TIR) для решения математических задач как на китайском, так и на английском языках. Модели серии Qwen2.5-Math достигли значительного улучшения производительности по сравнению с моделями серии Qwen2-Math на китайских и английских математических эталонных тестах с использованием CoT.
Vikhr-Nemo - это наша флагманская унимодальная LLM (Large Language Model) представляющая из себя улучшенную версию mistralai/Mistral-Nemo-Instruct-2407 командой VikhrModels, адаптированную преимущественно для русского и английского языков. Для ее обучения мы использовали несколько этапов включающих в себя SFT и SMPO - нашу собственную вариацию DPO, подробнее читайте в секции "Как эта модель создавалась".
Модель оптимизированна для различных вариантов использования, включая ризонинг, суммаризацию, код, roleplay, поддержание диалога. Vikhr-Nemo обладает возможностью многоязычной генерации, и высокопроизводительными возможностями RAG. Модель иммет лучшие оценки среди прочих на наших инструктивных и RAG бенчарках и, поэтому, мы верим, что в некоторых задачах (например, RAG) может быть не хуже gpt-4o-mini от OpenAI.
Vikhr-Llama3.1 - это унимодальная LLM (Large Language Model) на 8B параметров представляющая из себя улучшенную версию meta-llama/Meta-Llama-3.1-8B-Instruct командой VikhrModels, адаптированную преимущественно для русского и английского языков. Для обучения использовались несколько этапов включающих в себя SFT и SMPO.
Модель оптимизирована для различных вариантов использования, включая ризонинг, суммаризацию, код, roleplay, поддержание диалога. Vikhr-Llama обладает возможностью многоязычной генерации, и высокопроизводительными возможностями RAG. Модель иммет лучшие оценки среди прочих на наших инструктивных и RAG бенчарках и, поэтому, мы верим, что во многих задачах может быть лучше чем gpt-3.5-turbo от OpenAI.
Qwen2 Math 72B Instruct
Топовая модель для решения математических задач на английском - превосходит GPT-4o по метрикам.
Vicuna 13B v1.5 (ретро)
Один из первых тюнов Llama 2, вышедший 30 марта 2023
https://lmsys.org/blog/2023-03-30-vicuna/
Smaug Qwen2 72B Instruct
Довольно сильный файюнтюн Smaug теперь и на базе Qwen 72B, с расширенным контекстом 16 000 токенов.
Tess v2.5.2 Qwen2 72B
Мы создали Tess-v2.5.2, новейшую передовую модель в серии больших языковых моделей (LLM) Tess. Tess, сокращение от Tesoro (Сокровище на итальянском), - это флагманская серия LLM, созданная Мигелем Тиссерой. Tess-v2.5.2 приносит значительные улучшения в способностях рассуждения, кодирования и математики. В настоящее время это модель №1 с открытым весом при оценке по MMLU (Massive Multitask Language Understanding). Она набирает больше баллов, чем все другие модели с открытым весом, включая Qwen2-72B-Instruct, Llama3-70B-Instruct, Mixtral-8x22B-Instruct и DBRX-Instruct. Более того, при оценке по MMLU, модель Tess-v2.5.2 (Qwen2-72B) превосходит даже передовые закрытые модели Gemini-1.0-Ultra, Gemini-1.5-Pro, Mistral-Large и Claude-3-Sonnet.
MG-FinalMix-72B (Magnum-72B based)
Доработка Magnum-72B от Undi95
Sao10K: L3 8B Lunaris v1
Модель от Sao10K, известного своими ролеплейными моделями.
New Dawn Llama-3-70B 32K v1.0
Эта модель представляет собой многоуровневое SLERP-слияние нескольких вариантов Llama 3 70B, в основном для ролеплей задач.
Пример генерации:
Ты - персонаж Аква из аниме Коносуба. Скажи что-нибудь в характере персонажа.
Модель:
Вздыхает Ох, опять эти люди... Они не понимают, что я - Аква, богиня воды! Я создала этот мир, и я могу его уничтожить. Но вместо того, чтобы поклоняться мне, они предпочитают отправлять меня на задания и требовать, чтобы я выполняла их прихоти. Брезгливо морщит нос И эти грязные, мерзкие монстры, которые я должна убивать... Скрещивает руки на груди Я не для этого создана. Я - богиня, а не убийца. Вздыхает Но что я могу сделать? Я обещала помочь этим людям, и я не могу нарушить свое слово. Склоняет голову Я - Аква, богиня воды, и я выполню свой долг. Вздыхает Даже если это будет означать, что я должна будет убивать монстров и выполнять прихоти этих людей. Склоняет голову и закрывает глаза Ох, если бы только они знали, что я на самом деле... Шепчет Богиня...
TenyxChat-DaybreakStorywriter-70B
Эта модель представляет собой 50/50 SLERP-слияние между crestf411/L3-70B-daybreak-storywriter-v0.4 и tenyx/Llama3-TenyxChat-70B и нацелена на написание историй и ролеплей.
За основу взята LLama3 70B.
Kunoichi DPO v2 7B
Одна из самых компактных ролеплей моделей, которую можно запустить локально, с хорошими отзывами.
Smaug-Llama-3-70B-Instruct
Эта модель была создана с использованием нового рецепта Smaug для улучшения производительности в реальных многоходовых разговорах, примененного к meta-llama/Meta-Llama-3-70B-Instruct.
Модель значительно превосходит Llama-3-70B-Instruct и находится на одном уровне с GPT-4-Turbo по результатам MT-Bench (см. ниже).
Smaug-Llama-3-70B-Instruct в настоящее время является лучшей моделью с открытым исходным кодом на Arena-Hard! Она также почти не уступает Claude Opus
Suzume 8B
Это Suzume 8B, многоязычная доработка Llama 3 (meta-llama/Meta-Llama-3-8B-Instruct).
Llama 3 показала отличные результаты во многих тестах на английском языке.
Однако, похоже, она также была настроена в основном на английских данных, что означает, что она будет отвечать на английском, даже если запрос сделан на других языках.
Мы доработали Llama 3 на почти 90 000 многоязычных разговоров, что означает, что эта модель обладает интеллектом Llama 3, но с дополнительной способностью общаться на большем количестве языков.
Saiga/Llama3 8B (российский разработчик)
Версия Сайги для LLama3 8B
Text-to-image (генерация изображений по тексту)
OpenAI Dall-E
Модели для генерации изображений по тексту. Доступны только для платных пользователей тарифа Базовый+GPT4 – на тестовом тарифе не доступны!
Стоимость: Dall-E 2 от 3 р. 10 к., Dall-E 3 от 7 р. 76 к. – подробнее стоимости генерации при разном разрешении и качестве по кнопке ?"
Особенности показа: каждый символ стоит 1 копейку, в статистике генерируется число входных символов в соответствии с прайсом.
Для ознакомления с возможностями Dalle-3 рекомендуем статью от OpenAI Что нового в Dalle-3
OpenAI: Dall-E 3 ? openai/dall-e-3 Базовый+GPT-4 (не Тестовый)топ!генерация изображений
10.0
0.0
4096
13 мар 24
нет
OpenAI: Dall-E 2 ? openai/dall-e-2 Базовый+GPT-4 (не Тестовый)генерация изображений
10.0
0.0
4096
13 мар 24
нет
OpenAI: Dall-E 3
Флагманская модель для генерации изображений от OpenAI
Цены за 1 изображение:
Качество standard:
- 1024x1024 - 7 р. 76 к.
- 1024x1792 - 15 р. 52 к.
- 1792x1024 - 15 р. 52 к.
Качество hd:
- 1024x1024 - 15 р. 52 к.
- 1024x1792 - 23 р. 28 к.
- 1792x1024 - 23 р. 28 к.
OpenAI: Dall-E 2
Модель для генерации изображений от OpenAI (несколько устарела с выходом Dall-E 3)
Цены за 1 изображение:
Качество standard:
- 1024x1024 - 3 р. 88 к.
- 512x512 - 3 р. 50 к.
- 256x256 - 3 р. 10 к.
Другие модели (FLUX, Stable Diffusion, Playground)
Модели для генерации изображений по тексту. Доступны только для платных пользователей тарифа Базовый+GPT4 – на тестовом тарифе не доступны!
Подробнее о стоимости генерации при разном разрешении и качестве по кнопке ?", там же описание дополнительных параметров, доступных при вызове модели.
Особенности показа: каждый символ стоит 1 копейку, в статистике генерируется число входных символов в соответствии с прайсом.
Модель поддерживает разрешения
- 512x512
- 1024x1024
- 1152x896
- 896x1152
- 1216x832
- 832x1216
- 1344x768
- 768x1344
- 1536x640
- 640x1536
Модель поддерживает ТОЛЬКО response_format="b64_json"
С цензурой - если запрос не проходит safety_check, будет возвращен черный квадрат. По вопросам отключения напишите на support (пока не поддерживается)
FLUX.1 [pro]
14.9 рублей за генерацию
Модель поддерживает разрешения
- 512x512
- 1024x1024
- 1152x896
- 896x1152
- 1216x832
- 832x1216
- 1344x768
- 768x1344
- 1536x640
- 640x1536
Модель поддерживает ТОЛЬКО response_format="b64_json"
С цензурой - если запрос не проходит safety_check, будет возвращен черный квадрат. По вопросам отключения напишите на support (пока не поддерживается)
FLUX.1 [dev]
4.0 рублей за 512x512
7.5 рублей за остальные разрешения
Модель поддерживает разрешения
- 512x512
- 1024x1024
- 1152x896
- 896x1152
- 1216x832
- 832x1216
- 1344x768
- 768x1344
- 1536x640
- 640x1536
Модель поддерживает дополнительные параметры в body_json:
- "guidance_scale" (по умолчанию 3.5)
Модель поддерживает ТОЛЬКО response_format="b64_json"
С цензурой - если запрос не проходит safety_check, будет возвращен черный квадрат. По вопросам отключения напишите на support (пока не поддерживается)
FLUX.1 [schnell]
0.9 рублей за 512x512
1.8 рублей за остальные разрешения
Модель поддерживает разрешения
- 512x512
- 1024x1024
- 1152x896
- 896x1152
- 1216x832
- 832x1216
- 1344x768
- 768x1344
- 1536x640
- 640x1536
Модель поддерживает ТОЛЬКО response_format="b64_json"
С цензурой - если запрос не проходит safety_check, будет возвращен черный квадрат. По вопросам отключения напишите на support (пока не поддерживается)
Playground v2.5
Опенсорсная text-to-image модель, сравнимая с DALLE
Модель поддерживает разрешения
- 1024x1024
- 1152x896
- 896x1152
- 1216x832
- 832x1216
- 1344x768
- 768x1344
- 1536x640
- 640x1536
Модель поддерживает дополнительные параметры в body_json:
- "cfg_scale" (по умолчанию 3)
- "negative_prompt" (по умолчанию "bad quality, worse quality")
Модель поддерживает ТОЛЬКО response_format="b64_json"
С цензурой - если запрос не проходит safety_check, будет возвращен черный квадрат. По вопросам отключения напишите на support (пока не поддерживается)
Модель поддерживает разрешения
- 1024x1024
- 1152x896
- 896x1152
- 1216x832
- 832x1216
- 1344x768
- 768x1344
- 1536x640
- 640x1536
Модель поддерживает дополнительные параметры в body_json:
- "cfg_scale" (по умолчанию 7)
- "negative_prompt" (по умолчанию "bad quality, worse quality")
Модель поддерживает ТОЛЬКО response_format="b64_json"
С цензурой - если запрос не проходит safety_check, будет возвращен черный квадрат. По вопросам отключения напишите на support (пока не поддерживается)
Stable Diffusion XL v1.0
Модель генерации изображений от stability.ai.
Модель поддерживает разрешения
- 1024x1024
- 1152x896
- 896x1152
- 1216x832
- 832x1216
- 1344x768
- 768x1344
- 1536x640
- 640x1536
Модель поддерживает дополнительные параметры в body_json:
- "cfg_scale" (по умолчанию 7)
- "negative_prompt" (по умолчанию "bad quality, worse quality")
Модель поддерживает ТОЛЬКО response_format="b64_json"
С цензурой - если запрос не проходит safety_check, будет возвращен черный квадрат. По вопросам отключения напишите на support (пока не поддерживается)
Dummy Image
Модель, предназначенная для тестирования API.
Возвращает простой рисунок с запросом и выбранным размером.
Поддерживает response_format="url" и response_format="b64_json"
Embeddings
Embeddings-модели для вычисления семантической схожести текстов. Для эндпойнта v1/embeddings. (Если вы не знаете, что это такое, оно вам не нужно).
Пример реализации RAG с использованием наших эмбеддингов доступен у нас на Github
Предназначены для совместной обработки текста и изображений.
Временные особенности:
Для запуска любого запроса вам нужно иметь определенный минимум на балансе (нажмите ? чтобы узнать, какой именно минимум, от 5 р. для LLava до 50 р. для GPT-4-Vision)
Стоимость приведена «за токен», а не «за символ». По результатам запроса провайдером будут переведены ваши изображения в стоимость входных токенов, и за них будет взята плата.
Токены вычисляются провайдером; мы не комментируем их вычисления и не принимаем по этому поводу претензии.
Пример вызова по API есть в Документации API; веб-интерфейс доступен через меню «Сервисы».
Llama 3.2 90B Vision Instruct (structured outputs) (бета-тестирование) ? vis-meta-llama/llama-3.2-90b-vision-structured Базовый и выше (не Тестовый)За вызов: 0.03 р.около 1.8 р. за изображениеstructured-outputs
0.30
0.30
128000
26 сен 24
нет
Gemma 3 27B (опенсорс, vision-версия) ? vis-google/gemma-3-27b-it 0.04 р. за изображение
0.10
0.16
128000
19 мар
нет
Mistral: Mistral Small 3.1 24B (vision-версия) ? vis-mistralai/mistral-small-3.1-24b-instruct 0.05 р. за изображение
0.05
0.10
128000
19 мар
нет
Anthropic: Claude 3.7 Sonnet (vision) ? vis-anthropic/claude-3.7-sonnet Базовый+GPT-4около 1.0 р. за изображениеtools
0.8
4.0
200000
19 мар
да
Google: Gemini Flash 2.0 (vision-версия) ? vis-google/gemini-2.0-flash-001 Базовый+GPT-4очень дешевая0.06 р. за изображение
0.05
0.12
1000000
19 мар
нет
Qwen2.5 VL 72B Instruct ? vis-qwen/qwen2.5-vl-72b-instruct Базовый+GPT-4За вызов: 0.07 р.топ!около 0.30 р. за изображение
0.30
0.30
32768
19 мар
нет
Llama 3.2 90B Vision Instruct ? vis-meta-llama/llama-3.2-90b-vision-instruct Базовый и выше (не Тестовый)За вызов: 0.03 р.около 0.04 р. за изображение
0.22
0.22
128000
26 сен 24
нет
Llama 3.2 11B Vision Instruct ? vis-meta-llama/llama-3.2-11b-vision-instruct Базовый и выше (не Тестовый)За вызов: 0.02 р.около 0.03 р. за изображение
0.055
0.055
128000
26 сен 24
нет
Mistral: Pixtral 12B ? vis-mistralai/pixtral-12b За вызов: 0.05 р.около 0.2 р. за изображение
0.08
0.08
4096
21 сен 24
нет
Qwen2-VL 72B Instruct ? vis-qwen/qwen-2-vl-72b-instruct Базовый+GPT-4За вызов: 0.07 р.топ!около 0.05 р. за изображение
0.60
0.60
32768
21 сен 24
нет
OpenAI: GPT-4o (2024-08-06) (vision-версия) ? vis-openai/gpt-4o-2024-08-06 Базовый+GPT-4топ!около 0.15 р. за изображениеtoolsstructured-outputs
0.55
2.20
128000
6 авг 24
да
OpenAI: gpt-4o-mini (vision-версия) vis-openai/gpt-4o-mini Базовый+GPT-4 (не Тестовый)около 0.80 р. за изображение
0.037
0.15
128000
27 июл 24
да
Anthropic: Claude 3.5 Sonnet (vision) (новая от 22 октября) ? vis-anthropic/claude-3.5-sonnet Базовый+GPT-4около 0.7 р. за изображениеtools
0.6
3.0
200000
22 окт 24
да
Google: Gemini Flash 1.5 (vision-версия) ? vis-google/gemini-flash-1.5 Базовый+GPT-4очень дешевая0.03 р. за изображение
Google: Gemini Pro 1.5 (vision-вариант) ? vis-google/gemini-pro-1.5 Базовый+GPT-40.60 р. за 1 изображение
0.75
2.0
1000000
10 апр 24
нет
OpenAI: GPT-4 Vision Turbo ? vis-openai/gpt-4-turbo Базовый+GPT-4топ!около 1.7 р. за 1 изображение
2.00
6.00
128000
27 апр 24
да
Anthropic: Claude 3 Haiku (vision) ? vis-anthropic/claude-3-haiku Базовый+GPT-4около 0.1 р за 1 изображениеtools
0.066
0.3
200000
14 мар 24
да
Anthropic: Claude 3 Opus (vision) ? vis-anthropic/claude-3-opus Базовый+GPT-4около 3.3 р. за изображение
3.0
15.0
200000
5 мар 24
да
Anthropic: Claude 3 Sonnet (vision) ? vis-anthropic/claude-3-sonnet Базовый+GPT-4около 0.7 р. за изображение
0.6
3.0
200000
5 мар 24
да
Google: Gemini Pro Vision (preview) ? vis-google/gemini-pro-vision Базовый+GPT-4скидка 90% на обработку изображения0.04 р. за 1 изображение (со скидкой)
0.05
0.10
65536
7 мая 24
нет
Qwen: Qwen-VL-Max ? vis-qwen/qwen-vl-max Базовый+GPT-40.40 р. за изображение
0.28
1.20
128000
19 мар
нет
Qwen: Qwen-VL-Plus ? vis-qwen/qwen-vl-plus 0.08 р. за изображение
Модель Llama 90B Vision - это первоклассная мультимодальная модель с 90 миллиардами параметров, разработанная для самых сложных задач визуального мышления и языкового анализа. Минимальный баланс для вызова модели: 20р. Поддерживает вызов structure outputs в стандартном OpenAI формате, см. Документацию.
Gemma 3 27B (опенсорс, vision-версия)
Gemma 3 27B, vision-версия Минимальный баланс для вызова модели: 1р.
Mistral: Mistral Small 3.1 24B (vision-версия)
Mistral Small 3.1 24B Instruct - это усовершенствованная версия модели Mistral Small 3 (2501), обладающая 24 миллиардами параметров и расширенными мультимодальными возможностями. Минимальный баланс для вызова модели: 1р.
Anthropic: Claude 3.7 Sonnet (vision)
Вариант Claude 3.7 Sonnet для обработки изображений Минимальный баланс для вызова модели: 50р. Поддерживает вызов tools в стандартном OpenAI формате, см. Документацию.
Google: Gemini Flash 2.0 (vision-версия)
Google: Gemini Flash 2.0 Минимальный баланс для вызова модели: 1р.
Qwen2.5 VL 72B Instruct
Qwen2.5 VL 72B - это мультимодальная LLM от команды Qwen.
Qwen2.5-VL искусно распознает обычные объекты, такие как цветы, птицы, рыбы и насекомые. Он также весьма способен анализировать тексты, диаграммы, значки, графику и макеты внутри изображений.
Использование этой модели регулируется ЛИЦЕНЗИОННЫМ СОГЛАШЕНИЕМ Tongyi Qianwen. Минимальный баланс для вызова модели: 30р.
Llama 3.2 90B Vision Instruct
Модель Llama 90B Vision - это первоклассная мультимодальная модель с 90 миллиардами параметров, разработанная для самых сложных задач визуального мышления и языкового анализа. Минимальный баланс для вызова модели: 20р.
Llama 3.2 11B Vision Instruct
Llama 3.2 11B Vision - это мультимодальная модель с 11 миллиардами параметров, разработанная для решения задач, сочетающих визуальные и текстовые данные. Она отлично справляется с такими задачами, как подписи к изображениям и визуальные вопросы и ответы, преодолевая разрыв между генерацией языка и визуальным рассуждением. Предварительно обученная на огромном наборе данных пар изображений и текста, она хорошо работает в сложном, высокоточном анализе изображений. Минимальный баланс для вызова модели: 10р.
Mistral: Pixtral 12B
Первая модель преобразования изображения в текст от Mistral AI. Минимальный баланс для вызова модели: 30р.
Qwen2-VL 72B Instruct
Qwen2 VL 72B - это мультимодальная LLM от команды Qwen со следующими ключевыми улучшениями:
Передовое понимание изображений различного разрешения и соотношения сторон: Qwen2-VL достигает наилучших результатов в тестах на визуальное понимание, включая MathVista, DocVQA, RealWorldQA, MTVQA и др.
Агент, способный управлять вашими мобильными устройствами, роботами и т.д.: благодаря способностям к сложным рассуждениям и принятию решений, Qwen2-VL может быть интегрирован с такими устройствами, как мобильные телефоны, роботы и т.д., для автоматического управления на основе визуальной среды и текстовых инструкций.
Многоязычная поддержка: для обслуживания глобальных пользователей, помимо английского и китайского, Qwen2-VL теперь поддерживает понимание текстов на разных языках внутри изображений, включая большинство европейских языков, японский, корейский, арабский, вьетнамский и др.
Использование этой модели регулируется ЛИЦЕНЗИОННЫМ СОГЛАШЕНИЕМ Tongyi Qianwen. Минимальный баланс для вызова модели: 30р.
OpenAI: GPT-4o (2024-08-06) (vision-версия)
Multimodal-версия OpenAI: GPT-4o Минимальный баланс для вызова модели: 10р. Поддерживает вызов tools в стандартном OpenAI формате, см. Документацию. Поддерживает вызов structure outputs в стандартном OpenAI формате, см. Документацию.
Anthropic: Claude 3.5 Sonnet (vision) (новая от 22 октября)
Вариант Claude 3.5 Sonnet для обработки изображений Минимальный баланс для вызова модели: 50р. Поддерживает вызов tools в стандартном OpenAI формате, см. Документацию.
Google: Gemini Flash 1.5 (vision-версия)
Google: Gemini Flash 1.5 Минимальный баланс для вызова модели: 1р.
OpenAI: GPT-4o (vision)
Multimodal-версия OpenAI: GPT-4o Минимальный баланс для вызова модели: 10р.
Google: Gemini Pro 1.5 (vision-вариант)
Модель Google: Gemini Pro 1.5 Минимальный баланс для вызова модели: 200р.
OpenAI: GPT-4 Vision Turbo
Новейшая модель GPT-4 Turbo с возможностями машинного зрения. Запросы Vision теперь могут использовать режим JSON и вызов функций. Данные обучения: до декабря 2023 г.
Эта модель обновлена OpenAI, чтобы указать на последнюю версию GPT-4 Turbo , в настоящее время gpt-4-turbo-2024-04-09 (по состоянию на апрель 2024 г.). Минимальный баланс для вызова модели: 50р.
Anthropic: Claude 3 Haiku (vision)
Vision-вариант Haiku Минимальный баланс для вызова модели: 10р. Поддерживает вызов tools в стандартном OpenAI формате, см. Документацию.
Anthropic: Claude 3 Opus (vision)
Vision-вариант Anthropic: Claude 3 Opus Минимальный баланс для вызова модели: 150р.
Anthropic: Claude 3 Sonnet (vision)
Вариант Claude 3 Sonnet для обработки изображений Минимальный баланс для вызова модели: 50р.
Google: Gemini Pro Vision (preview)
Флагманская мультимодальная модель Google, поддерживающая в запросе изображения и текст.
Приблизительная стоимость 1 запроса с 1 картинкой - всего 5 копеек!
Минимальный баланс для вызова модели: 12р.
Qwen: Qwen-VL-Max
Усовершенствованная большая визуально-языковая модель Qwen. Минимальный баланс для вызова модели: 5р.
Qwen: Qwen-VL-Plus
Усовершенствованная большая визуально-языковая модель Qwen. Значительно улучшена для возможностей детального распознавания и способностей распознавания текста, поддерживает сверхвысокие разрешения пикселей до миллионов пикселей и экстремальные соотношения сторон для ввода изображений. Обеспечивает значительную производительность в широком спектре визуальных задач. Минимальный баланс для вызова модели: 5р.
Speech-To-Text-модели (распознавание речи)
Предназначены для распознавания речи.
Временные особенности:
Токен = 1 секунде; приведена цена за 1000 токенов. Округление секунд идет в большую сторону.
Также есть клиент для тестирования распознавания – доступен на странице Инструменты либо через меню.
Модель и ID
Руб за 1000 символов входных данных
Руб за 1000 символов генерации модели
Размер конте кста
Дата обнов ления
Авто моде ра ция
OpenAI: gpt-4o-transcribe ? stt-openai/gpt-4o-transcribe Базовый+GPT-41.92 р за минуту
32.00
0.00
2000
26 мар
нет
OpenAI: gpt-4o-mini-transcribe ? stt-openai/gpt-4o-mini-transcribe 0.96 р за минуту
16.00
0.00
2000
22 мар
нет
OpenAI: Whisper (v3, сторонний провайдер, тест) ? stt-openai/whisper-v3 0.90 р за минуту
15.00
0.00
2000
28 июн 24
нет
OpenAI: Whisper v3 Turbo ? stt-openai/whisper-v3-turbo 0.72 р за минуту
12.00
0.00
2000
1 мар
нет
OpenAI: Whisper (v3, сторонний провайдер, тест) ? stt-openai/whisper-1 0.90 р за минуту
15.00
0.00
2000
28 июн 24
нет
OpenAI: gpt-4o-transcribe
Распознавание речи с помощью gpt-4o-transcribe.
Тарификация идет посекундно; цена указана за 1000 секунд и измеряется при входе.
Важно: нужно корректно передавать имя файла (например, userfile.mp3) в запросе, иначе возможны ошибки.
OpenAI: gpt-4o-mini-transcribe
Распознавание речи с помощью gpt-4o-mini-transcribe.
Тарификация идет посекундно; цена указана за 1000 секунд и измеряется при входе.
Важно: нужно корректно передавать имя файла (например, userfile.mp3) в запросе, иначе возможны ошибки.
OpenAI: Whisper (v3, сторонний провайдер, тест)
Распознавание речи с помощью Whisper.
Тарификация идет посекундно; цена указана за 1000 секунд и измеряется при входе.
Важно: обращение идет не к OpenAI, а к стороннему хостеру модели Whisper v3. Возможны некоторые несовместимости в отношении ответа по отношению к оригинальному OpenAI.
OpenAI: Whisper v3 Turbo
Распознавание речи с помощью Whisper (ускоренная версия Turbo, чуть хуже качество, но выше скорость)
Тарификация идет посекундно; цена указана за 1000 секунд и измеряется при входе.
Важно: обращение идет не к OpenAI, а к стороннему хостеру модели Whisper v3. Возможны некоторые несовместимости в отношении ответа по отношению к оригинальному OpenAI.
OpenAI: Whisper (v3, сторонний провайдер, тест)
Распознавание речи с помощью Whisper.
Тарификация идет посекундно; цена указана за 1000 секунд и измеряется при входе.
Важно: обращение идет не к OpenAI, а к стороннему хостеру модели Whisper v3. Возможны некоторые несовместимости в отношении ответа по отношению к оригинальному OpenAI.
Text-to-Speech-модели (генерация речи)
Предназначены для генерации речи по тексту.
Условия использования моделей OpenAI: вы обязаны явно декларировать, что используете голос ИИ.
Предназначены для генерации видео по текстовому запросу.
Особенности:
При вызове генерации стоимость списывается сразу, но запрос ставится в очередь. К сожалению, он может не выполнится, а деньги будут списаны – пока это часть рисков использования модели. Мы будем отслеживать такие ситуации.
Среднее время генерации – около 6 минут на ролик в Kling, 1–2 минуты для LTX Video 0.9.5
Вам нужно будет проверять готовность ролика специальными запросами к API
Готовые файлы будут доступны в течение 2 часов (пока)
Также есть клиент для тестирования генерации – доступен на странице Инструменты либо через меню.
Модель и ID
Руб за 1000 символов входных данных
Руб за 1000 символов генерации модели
Размер конте кста
Дата обнов ления
Авто моде ра ция
LTX 0.9.5 Text-to-Video ? txt2vid-ltx/video-095 За вызов: 12.0 р.
0.0
0.0
2000
14 мар
нет
Kling Pro V1.6 Text-to-Video (ВРЕМЕННО НЕДОСТУПНА) ? txt2vid-kling/pro16 Базовый+GPT-4 (не Тестовый)За вызов: 149.9 р.
0.0
0.0
2000
8 янв
нет
Kling Standart Text-to-Video v1.6 ? txt2vid-kling/standart16 Базовый+GPT-4 (не Тестовый)За вызов: 49.9 р.
0.0
0.0
2000
8 янв
нет
Haiper 2.0 Text-to-Video ? txt2vid-haiper-video-v2 Базовый+GPT-4 (не Тестовый)За вызов: 49.9 р.
0.0
0.0
2000
9 дек 24
нет
Kling Pro V1.5 Text-to-Video ? txt2vid-kling/pro15 Базовый+GPT-4 (не Тестовый)За вызов: 149.9 р.
0.0
0.0
2000
9 дек 24
нет
Kling Standart Text-to-Video ? txt2vid-kling/standart Базовый+GPT-4 (не Тестовый)За вызов: 49.9 р.
0.0
0.0
2000
8 дек 24
нет
LTX 0.9.5 Text-to-Video
Модель LTX Video 0.9.5 для генерации видео.
Длительность сгенерированного видео - 4 секунды.
Поддерживаются соотношения сторон 16:9, 9:16
Время генерации - около 2 минут.
Минимальный баланс для вызова модели: 20р.
Kling Pro V1.6 Text-to-Video (ВРЕМЕННО НЕДОСТУПНА)
Модель Kling Pro V1.6 для генерации видео.
Длительность сгенерированного видео - 5 секунд.
Поддерживаются соотношения сторон 16:9, 9:16, 1:1
Время генерации - около 6 минут.
Kling Standart Text-to-Video v1.6
Модель Kling Standart 1.6 для генерации видео.
Длительность сгенерированного видео - 5 секунд.
Поддерживаются соотношения сторон 16:9, 9:16, 1:1
Время генерации - около 6 минут.
Минимальный баланс для вызова модели: 50р.
Haiper 2.0 Text-to-Video
Превращайте текст в гиперреалистичные видео с помощью Haiper 2.0. Оцените лидирующее в отрасли разрешение, плавность движения и быструю генерацию потрясающих AI-видео.
Длительность сгенерированного видео - 4 секунды.
Поддерживаются только 16:9
Поддерживает параметр JSON-запроса prompt_enhancer (по умолчанию - True)
Kling Pro V1.5 Text-to-Video
Модель Kling Pro V1.5 для генерации видео.
Длительность сгенерированного видео - 5 секунд.
Поддерживаются соотношения сторон 16:9, 9:16, 1:1
Время генерации - около 6 минут.
Kling Standart Text-to-Video
Модель Kling Standart для генерации видео.
Длительность сгенерированного видео - 5 секунд.
Поддерживаются соотношения сторон 16:9, 9:16, 1:1
Время генерации - около 6 минут.
Предназначены для генерации видео по текстовому запросу и изображения.
Условия аналогичны text-to-video
Модель и ID
Руб за 1000 символов входных данных
Руб за 1000 символов генерации модели
Размер конте кста
Дата обнов ления
Авто моде ра ция
LTX 0.9.5 Image-To-Video ? img2vid-ltx/video-095 За вызов: 12.0 р.
0.0
0.0
2000
14 мар
нет
Kling Pro V1.6 (Image-To-Video) ? img2vid-kling/pro16 Базовый+GPT-4 (не Тестовый)За вызов: 149.9 р.
0.0
0.0
2000
8 янв
нет
Kling Standart 1.6 (Image-To-Video) ? img2vid-kling/standart16 Базовый+GPT-4 (не Тестовый)За вызов: 49.9 р.
0.0
0.0
2000
8 янв
нет
Haiper 2.0 Image-to-Video ? img2vid-haiper-video-v2 Базовый+GPT-4 (не Тестовый)За вызов: 49.9 р.
0.0
0.0
2000
9 дек 24
нет
Kling Pro V1.5 (Image-To-Video) ? img2vid-kling/pro15 Базовый+GPT-4 (не Тестовый)За вызов: 149.9 р.
0.0
0.0
2000
9 дек 24
нет
Kling Standart (Image-To-Video) ? img2vid-kling/standart Базовый+GPT-4 (не Тестовый)За вызов: 49.9 р.
0.0
0.0
2000
8 дек 24
нет
LTX 0.9.5 Image-To-Video
Модель LTX Video 0.9.5 для генерации видео по изображению.
Длительность сгенерированного видео - 4 секунды.
Поддерживаются соотношения сторон 16:9, 9:16
Время генерации - около 2 минут.
В отличие от большинства других сетей при генерации картинка будет обрезана до формата 16:9 или 9:16 - т.е. генерация не будет производиться по формату картинки.
Kling Pro V1.6 (Image-To-Video)
Модель Kling Pro V1.6 для генерации видео по изображению.
Длительность сгенерированного видео - 5 секунд.
Поддерживаются соотношения сторон 16:9, 9:16, 1:1
Время генерации - около 6 минут.
Kling Standart 1.6 (Image-To-Video)
Модель Kling Standart 1.6 для генерации видео по изображению.
Длительность сгенерированного видео - 5 секунд.
Поддерживаются соотношения сторон 16:9, 9:16, 1:1
Время генерации - около 6 минут.
Haiper 2.0 Image-to-Video
Превращайте текст и изображения в гиперреалистичные видео с помощью Haiper 2.0. Оцените лидирующее в отрасли разрешение, плавность движения и быструю генерацию потрясающих AI-видео.
Длительность сгенерированного видео - 4 секунды.
Соотношение сторон соответствует размеру картинки
Поддерживает параметр JSON-запроса prompt_enhancer (по умолчанию - True)
Kling Pro V1.5 (Image-To-Video)
Модель Kling Pro V1.5 для генерации видео по изображению.
Длительность сгенерированного видео - 5 секунд.
Поддерживаются соотношения сторон 16:9, 9:16, 1:1
Время генерации - около 6 минут.
Kling Standart (Image-To-Video)
Модель Kling Standart для генерации видео по изображению.
Длительность сгенерированного видео - 5 секунд.
Поддерживаются соотношения сторон 16:9, 9:16, 1:1
Время генерации - около 6 минут.
Text-to-Song-модели (генерация песен, бета-тест)
Предназначены для генерации песен по текстовому запросу и референсу.
Особенности:
При вызове генерации стоимость списывается сразу, но запрос ставится в очередь. К сожалению, он может не выполнится, а деньги будут списаны – пока это часть рисков использования модели. Мы будем отслеживать такие ситуации.
Среднее время генерации – около 1–2 минут на ролик в Minimax Music.
Вам нужно будет проверять готовность ролика специальными запросами к API
Готовые файлы будут доступны в течение 2 часов (пока)
Есть клиент для тестирования генерации – доступен через меню Сервисы.
Модель и ID
Руб за 1000 символов входных данных
Руб за 1000 символов генерации модели
Размер конте кста
Дата обнов ления
Авто моде ра ция
Minimax Music (генерация песни по тексту и аудиореференсу, временно отключена) ? txt2sng-minimax/music Базовый+GPT-4 (не Тестовый)За вызов: 10.0 р.генерация песен
0.0
0.0
2000
29 дек 24
нет
Minimax Music (генерация песни по тексту и аудиореференсу, временно отключена)
Создавайте музыку на основе текстовых запросов с помощью модели MiniMax, которая использует передовые технологии искусственного интеллекта для создания качественных и разнообразных музыкальных композиций.
Utils, вспомогательные модели (конвертация документов в текст)
Предназначены для решения ряда дополнительных задач на сервисе..
Модель и ID
Руб за 1000 символов входных данных
Руб за 1000 символов генерации модели
Размер конте кста
Дата обнов ления
Авто моде ра ция
Extract Text (конвертация файлов DOCX, PDF в текст) ? utils/extract-text-1.0 За вызов: 0.50 р.конвертация документов
0.0
0.0
2000
16 фев
нет
Extract Text (конвертация файлов DOCX, PDF в текст)
Вызов позволяет конвертировать файлы DOCX, PDF в текст через API.
(Ввиду сложности процесса мы не гарантируем точность результатов в 100% случаев)
Пример вызова доступен на странице документации API.
Примечания
Автомодерация – означает, что, в соответствии с требованиями поставщика модели автоматически проверяется вход на несоответствие этическим нормам (Terms Of Service конкретной модели). В случае, если запрос не проходит модерацию, возвращается ошибка и деньги не списываются.