Мировые новинки у нас
- 19 ноября, Mistral Large 2411 – подключили обновление модели Mistral Large.
- 5 ноября, новая Haiku 3.5 – самая последняя модель от Anthropic, сравнима с версией Sonnet 3.5 от июня 2024.
- 22 октября, новая Sonnet 3.5 – новая Sonnet 3.5 уже доступна на сервисе!
- 13 октября, Grok Beta от xAI – модель от xAI, компании Илона Маска, который пытается конкурировать с OpenAI
- 7 октября, Google Gemini Flash-8B – новые модели от Google.
- 4 октября, FLUX pro 1.1 – лучшая мировая модель на текущий момент для генерации изображений уже у нас!
- 26 сентября, серия LLama 3.2 подключена в течение суток после выхода!
- 25 сентября, Google Gemini Pro 002 и Gemini Flash 002 – новые модели от Google.
- 13 сентября, OpenAI o1-mini и o1-preview – новая модель от OpenAI подключена в течение суток!
- 28 августа, FLUX schnell, dev и pro – топовые модели генерации изображений серии FLUX доступны у нас. FLUX pro даже обходит Midjourney на Арене генерирующих картинки моделей.
- 28 августа, новые опенсорс модели – Hermes 405B (один из немногих файнтюнов Llama 3.1 405B), Mistral Nemo 12B Starcannon, Llama 3.1 Euryale 70B v2.2
- 22 августа, Webapp AI Generator – выкатили ИИ-генератор веб-приложений по текстовому описанию с возможностью просмотра результата (аналог Artifacts). Доступно в «Интеграциях».
- 14 августа, OpenAI: GPT-4o-latest – последняя сеть от OpenAI. Под ней OpenAI будет постоянно публиковать все новые и более совершенные релизы GPT-4o
- 14 августа, OpenAI: GPT-4o-64k-output – версия GPT-4o, позволяющая генерировать расширенные результаты, вплоть до 64 000 токенов. Временно недоступна обычным подписчикам OpenAI, только специальным тестерам – а у нас доступна :)
- 14 августа, Google Flash – значительно снижены цены вслед за Google
- 7 августа, OpenAI: GPT-4o 2024–08–06 – последняя модель GPT-4o, с пониженной ценой и поддержкой структурированного выхода JSON (мы уже поддерживаем структурный выход по схеме)
- 25 июля, Mistral Large 2 – последняя модель от Mistral (вышла 24 июля)
- 23 июля, Llama 3.1 405B Instruct – доступна у нас, в течение 1.5 часов после официального релиза. (также доступны LLama 3.1 8B и 70B)
- 19 июля, 10 новых опенсорс моделей – в серии Open Models Fan, предназначенной для поддержки доступа к опенсорс моделям (теперь на всех платных тарифных планах).
- 18 июля, OpenAI: GPT-4o mini – в 22:00, спустя 2 часа после официального запуска, модель уже доступна!
- 17 июля, Google Gemma 2 27B – новая опенсорс модель от Google. Очень неплохо общается на русском.
- 12 июля, Playground 2.5 – опенсорс модель для генерации изображений уровня DALLE-3 (согласно рейтингу ЭЛО text-to-image моделей), но в пять раз дешевле DALLE-3.
- 12 июля, Magnum 72B – топовая опенсорсная модель для ролевого взаимодействия
- 30 июня, Stable Diffusion XL – подключили классическую опенсорс модель генерации изображений.
- 28 июня, Google Gemma 2 9B – новая опенсорс модель от Google. Очень неплохо общается на русском.
- 25 июня, NVIDIA Nemotron 4 340B Instruct – крупнейшая опенсорс модель на настоящий момент. Первая опенсорс модель, которая переводит по метрикам лучше Google Translate и DeepL.
- 20 июня, Anthropic: Claude 3.5 Sonnet – новая топовая модель; по метрикам превосходит GPT-4o и предыдущий топовый Claude 3 Opus
- 14 июня, OpenAI: TTS – добавили модели для генерации речи по тексту от OpenAI
- 7 июня, Qwen2 72B Instruct – новая опенсорс модель из серии Qwen от Tongyi Qianwen (Alibaba group, Китай), сравнимая с LLama3 70B
- 25 мая, Microsoft: Phi 3 Medium – самая старшая из серии Phi 3 моделей. Хорошая тренировка, 128 000 контекст.
- 15 мая, Google: Gemini Flash 1.5 – с презентации Google IO от 14 мая. 1 миллион контекста и очень дешевая обработка.
- 13 мая, OpenAI: GPT-4o – самая свежая и сильная модель от OpenAI уже на сервисе! (подключили в течение часа после выхода)
- 11 мая, Qwen 1.5 14B/32B/72B/110B – опенсорс модели от Tongyi Qianwen (Alibaba group, Китай)
- 6 мая, Lumimaid 8B – опенсорс модель для ролевого взаимодействия (файнтюн Llama3 8B)
- 26 апреля, FireLLaVA 13B – опенсорс модель для вопросов по изображениям
- 19 апреля, Llama3 8B/70B – новейшие опенсорс модели серии Llama.
- 18 апреля, MicrosoftAI: WizardLM-2 7B – файнтюн 7B-модели от MicrosoftAI.
- 18 апреля, Mistral: Mixtral 8x22B Instruct – официальная дотренировка от Mistral их модели на выполнение инструкций.
- 16 апреля, MicrosoftAI: WizardLM-2 8x22B – мощный опенсорсный файнтюн для Mixtral 8x22B, по метрикам сопоставим с GPT-4.
- 11 апреля, Mistral: Mixtral 8x22B – запустили самую последнюю опенсорс модель от Mistral.
- 10 апреля, OpenAI: GPT-4-Turbo – последний вариант GPT-4-Turbo от 9 апреля
- 10 апреля, Google: Gemini Pro 1.5 на 1 миллион контекста
- Более старые новости по подключенным моделям
Текстовые модели
Модели OpenAI: ChatGPT, GPT-4o, GPT-4o-mini...
Нейросети от мирового лидера, OpenAI. Если вы только погружаетесь в тему текстовых нейросетей – оптимально выбрать ChatGPT (gpt-3.5-turbo) в качестве основного варианта. Если вам нужна бОльшая точность в рассуждениях – выберите GPT-4. GPT-4-Turbo обладает контекстом в 128 000 символов и подходит в том числе для обработки больших файлов – но она в меру дорогая.
Внимание: для новых пользователей включена автоматическая оптимизация запросов при выборе сетeй OpenAI – выбирается самая эффективная и дешевая в своем классе. Если вы хотите точного соответствия модели вашему запросу, отключите оптимизацию в Настройках
Внимание: для новых пользователей включена автоматическая оптимизация запросов при выборе сетeй OpenAI – выбирается самая эффективная и дешевая в своем классе. Если вы хотите точного соответствия модели вашему запросу, отключите оптимизацию в Настройках
Модель и ID | Руб за 1000 символов входных данных | Руб за 1000 символов генерации модели | Размер конте кста | Дата обнов ления | Авто моде ра ция |
OpenAI: GPT-3.5 Turbo openai/gpt-3.5-turbo | 0.15 | 0.3 | 4095 | 7 ноя 23 | да |
OpenAI: GPT-3.5 Turbo 16k (11-06) ? openai/gpt-3.5-turbo-1106 рекомендуется | 0.15 | 0.3 | 16385 | 16 янв | да |
OpenAI: GPT-3.5 Turbo Instruct ? openai/gpt-3.5-turbo-instruct | 0.225 | 0.3 | 4095 | 2 окт 23 | да |
OpenAI: GPT-3.5 Turbo 16k openai/gpt-3.5-turbo-16k | 0.45 | 0.6 | 16383 | 30 сен 23 | да |
OpenAI: GPT-3.5 Turbo 16k (01-25) ? openai/gpt-3.5-turbo-0125 рекомендуется | 0.075 | 0.225 | 16385 | 2 фев | да |
OpenAI: GPT-4 ? openai/gpt-4 Базовый+GPT-4 | 4.5 | 9 | 8191 | 14 дек 23 | да |
OpenAI: GPT-4 Turbo (1106-preview) ? openai/gpt-4-1106-preview Базовый+GPT-4 | 1.5 | 4.5 | 128000 | 1 фев | да |
OpenAI: GPT-4 Turbo (0125-preview) ? openai/gpt-4-turbo-preview Базовый+GPT-4 | 1.5 | 4.5 | 128000 | 6 июн | да |
OpenAI: GPT-4 Turbo (gpt-4-turbo-2024-04-09) ? openai/gpt-4-turbo Базовый+GPT-4 топ! | 1.5 | 4.5 | 128000 | 10 апр | да |
OpenAI: GPT-4o ? openai/gpt-4o Базовый+GPT-4 топ от 13 мая | 0.6 | 1.8 | 128000 | 25 мая | да |
OpenAI: GPT-4o mini ? openai/gpt-4o-mini | 0.02 | 0.08 | 128000 | 18 июл | да |
OpenAI: GPT-4o (2024-05-13) openai/gpt-4o-2024-05-13 Базовый+GPT-4 | 0.6 | 1.8 | 128000 | 13 мая | да |
OpenAI: GPT-4o (2024-08-06) ? openai/gpt-4o-2024-08-06 Базовый+GPT-4 топ от 6 августа | 0.3 | 1.2 | 128000 | 6 авг | да |
OpenAI: GPT-4o (до 64 000 выходных токенов) (альфа-версия) ? openai/gpt-4o-64k-output Базовый+GPT-4 (не Тестовый) | 0.72 | 2.16 | 128000 | 14 авг | да |
OpenAI: GPT-4o (последняя, экспериментальная) ? openai/gpt-4o-latest Базовый+GPT-4 ТОП! | 0.6 | 1.8 | 128000 | 14 авг | да |
OpenAI: o1-mini (не рек. для обычных задач) ? openai/o1-mini Базовый+GPT-4 (не Тестовый) биллинг с учетом размышлений (см. ?) размышления, математика | 0.6 | 2.7 | 128000 | 13 сен | нет |
OpenAI: o1-preview (для размышлений, не рек. для обычных задач) ? openai/o1-preview Базовый+GPT-4 (не Тестовый) биллинг с учетом размышлений (см. ?) размышления, математика | 3.5 | 14.0 | 128000 | 13 сен | да |
OpenAI: GPT-4 32k openai/gpt-4-32k Базовый+GPT-4 | 9 | 18 | 32767 | 11 сен 23 | да |
OpenAI: Dall-E 2 ? openai/dall-e-2 Базовый+GPT-4 (не Тестовый) генерация изображений | 10.0 | 0.0 | 4096 | 13 мар | нет |
OpenAI: Dall-E 3 ? openai/dall-e-3 Базовый+GPT-4 (не Тестовый) топ! генерация изображений | 10.0 | 0.0 | 4096 | 13 мар | нет |
Модели Anthropic: Claude Sonnet, Opus, Haiku
Нейросети от Anthropic – основного конкурента OpenAI. Мы рекомендуем их пробовать, если нужна обработка больших текстов (файлов и пр.). Рекомендуем их нейросети Claude 3 – Haiku для дешевой и быстрой обработки большого контекста, Opus – для максимально качественной работы.
Anthropic: Claude v2.1 ? anthropic/claude-2 Базовый+GPT-4 | 1.2 | 3.6 | 200000 | 23 ноя 23 | да |
Anthropic: Claude v2.0 ? anthropic/claude-2.0 Базовый+GPT-4 | 1.2 | 3.6 | 100000 | 23 ноя 23 | да |
Anthropic: Claude 3 Sonnet ? anthropic/claude-3-sonnet Базовый+GPT-4 | 0.4 | 2.0 | 200000 | 6 мар | да |
Anthropic: Claude 3 Opus ? anthropic/claude-3-opus Базовый+GPT-4 ТОП! | 2.0 | 10.0 | 200000 | 6 мар | да |
Anthropic: Claude 3 Haiku ? anthropic/claude-3-haiku дешевая и с большим контекстом | 0.0375 | 0.1875 | 200000 | 14 мар | да |
Anthropic: Claude 3.5 Sonnet (новая от 22 октября) ? anthropic/claude-3.5-sonnet Базовый+GPT-4 топ от 22 октября | 0.4 | 2.0 | 200000 | 22 окт | да |
Anthropic: Claude 3.5 Haiku ? anthropic/claude-3-5-haiku топ от 5 ноября | 0.14 | 0.70 | 200000 | 5 ноя | да |
Модели Perplexity: онлайн, с доступом к Интернету и фактической информации
Нейросети от Perplexity, сфокусированные на более точным следованиям фактам. Онлайн-модели (online в конце) перед запросом предположительно запрашивают свежие данные в Интернете, после чего формируют ответ – и, например, могут отвечать о погоде сегодня, о курсе доллара и пр. Также модели можно передавать ссылку на конкретную страницу в Интернете и с высокой вероятностью получить релевантный ответ.
Наша новость на Хабре о моделях Perplexity
Внимание: онлайн-модель дополнительно тарифицируется по каждому запросу (т.к. идет вызов онлайн-поиска). Модель НЕ поддерживает чат – каждый запрос учитывает только последнее сообщение пользователя.
Рекомендация: поскольку Perplexity постоянно выпускает новые модели и удаляет обработку старых, рекомендуется установить в ваших приложениях ID псевдонима для малой или большой модели – тогда сервис сам перенаправит ваш запрос в самую последнюю версию (по ней и будет происходить тарификация)
Наша новость на Хабре о моделях Perplexity
Внимание: онлайн-модель дополнительно тарифицируется по каждому запросу (т.к. идет вызов онлайн-поиска). Модель НЕ поддерживает чат – каждый запрос учитывает только последнее сообщение пользователя.
Рекомендация: поскольку Perplexity постоянно выпускает новые модели и удаляет обработку старых, рекомендуется установить в ваших приложениях ID псевдонима для малой или большой модели – тогда сервис сам перенаправит ваш запрос в самую последнюю версию (по ней и будет происходить тарификация)
Perplexity, последняя малая онлайн модель (перенаправляет в нужный ID) perplexity/latest-small-online онлайн | 0 | 0 | 32000 | 8 авг | нет |
Perplexity, последняя большая онлайн модель (перенаправляет в нужный ID) perplexity/latest-large-online рекомендуется онлайн | 0 | 0 | 32000 | 8 авг | нет |
Perplexity: Llama 3.1 Sonar 8B Online ? perplexity/llama-3.1-sonar-small-128k-online За вызов: 0.85 р. онлайн | 0.04 | 0.04 | 128000 | 8 авг | нет |
Perplexity: Llama 3.1 Sonar 70B Online ? perplexity/llama-3.1-sonar-large-128k-online За вызов: 0.85 р. рекомендуется онлайн | 0.15 | 0.15 | 128000 | 8 авг | нет |
Модели Google: Gemini Pro, Flash
Нейросети от Google. Достаточно дешевые.
Рекомендуются последние версии Gemini, однако пользователи жалуются, что даже при не очень большом контексте (5К+ символов) Google относительно часто возвращает ошибки и очень маленькие ответы (июнь 2024).
В случае, если нужна точность, рекомендуем модели Claude 3 с большим контекстом.
Рекомендуются последние версии Gemini, однако пользователи жалуются, что даже при не очень большом контексте (5К+ символов) Google относительно часто возвращает ошибки и очень маленькие ответы (июнь 2024).
В случае, если нужна точность, рекомендуем модели Claude 3 с большим контекстом.
Google: Gemini Pro 1.0 ? google/gemini-pro рекомендуется | 0.049 | 0.11 | 32768 | 26 апр | нет |
Google: PaLM 2 Bison google/palm-2-chat-bison | 0.075 | 0.075 | 1024 | 11 ноя 23 | нет |
Google: PaLM 2 Chat 32k ? google/palm-2-chat-bison-32k | 0.075 | 0.075 | 32000 | 11 ноя 23 | нет |
Google: Gemini Pro 1.5 (версия 002 от 25 сентября) ? google/gemini-pro-1.5 Базовый+GPT-4 | 0.5 | 1.5 | 1000000 | 25 сен | нет |
Google: Gemini Flash 1.5 (версия 002 от 25 сентября) ? google/gemini-flash-1.5 Базовый+GPT-4 дешевая и с большим контекстом | 0.017 | 0.05 | 1000000 | 25 сен | нет |
Gemini 1.5 Flash-8B ? google/gemini-flash-1.5-8b дешевая и с большим контекстом | 0.015 | 0.04 | 1000000 | 7 окт | нет |
Google: Gemma 2 9B (опенсорс) ? google/gemma-2-9b-it | 0.03 | 0.03 | 8192 | 28 июн | нет |
Gemma 2 27B (опенсорс) ? google/gemma-2-27b-it | 0.10 | 0.10 | 8192 | 17 июл | нет |
Модели MistralAI: опенсорс + закрытые Tiny, Small, Medium
Закрытые, предоставляемые по API нейросети от компании Mistral, известной своими опенсорс моделями. Mistral Medium по оценкам производителя в работе сравнима с Claude 2 и GPT 4. Также здесь присутствуют ссылки на её оригинальные опенсорс модели.
Mistral 7B Instruct v0.3 ? mistralai/mistral-7b-instruct | 0.035 | 0.035 | 8192 | 29 мая | нет |
Mistral: Mixtral 8x7B Instruct ? mistralai/mixtral-8x7b-instruct дешевая 8x7B с большим контекстом | 0.045 | 0.045 | 32768 | 18 мар | нет |
Mistral Tiny ? mistralai/mistral-tiny | 0.04 | 0.04 | 32000 | 27 фев | нет |
Mistral Small ? mistralai/mistral-small | 0.30 | 0.90 | 32000 | 27 фев | нет |
Mistral Medium ? mistralai/mistral-medium Базовый+GPT-4 | 0.42 | 1.25 | 32000 | 15 янв | нет |
Mistral: Mistral Large 2 ? mistralai/mistral-large Базовый+GPT-4 | 0.45 | 1.35 | 128000 | 24 июл | нет |
Mistral: Mixtral 8x22B Instruct ? mistralai/mixtral-8x22b-instruct | 0.15 | 0.15 | 65536 | 18 апр | нет |
Mistral: Mistral NeMo 12B ? mistralai/mistral-nemo поддерживает русский общие вопросы | 0.05 | 0.05 | 128000 | 19 июл | нет |
Ministral 8B ? mistralai/ministral-8b | 0.02 | 0.02 | 128000 | 21 окт | нет |
Mistral: Mistral Large 2 (версия 2411) ? mistralai/mistral-large-2411 Базовый+GPT-4 | 0.45 | 1.35 | 128000 | 19 ноя | нет |
Модели Cohere: с фокусом на RAG, function calling, tools
Модели от Cohere с фокусом на RAG, function calling, tools.
Доступны в виде OpenSource версий, но у нас предоставляются через API с модерацией.
Используя данные модели, вы соглашаетесь с ToS Cohere
Доступны в виде OpenSource версий, но у нас предоставляются через API с модерацией.
Используя данные модели, вы соглашаетесь с ToS Cohere
Cohere: Command R ? cohere/command-r | 0.075 | 0.225 | 128000 | 6 апр | нет |
Cohere: Command R+ ? cohere/command-r-plus | 0.45 | 2.25 | 128000 | 6 апр | нет |
Cohere: Command R (август 2024) ? cohere/command-r-08-2024 общие вопросы и ролеплей | 0.025 | 0.09 | 128000 | 31 авг | нет |
Cohere: Command R+ (август 2024) ? cohere/command-r-plus-08-2024 Базовый+GPT-4 общие вопросы и ролеплей | 0.38 | 1.5 | 128000 | 31 авг | нет |
Модели Qwen – опенсорс модели от Tongyi Qianwen (Alibaba)
Серия языковых моделей от Tongyi Qianwen (Alibaba group, Китай).
Старшие модели показывают неплохое знание русского языка – но рекомендуется ставить температуру пониже (около 0.2) и явно прописывать «отвечать на русском языке».
Блог-запись о запуске моделей
Используя эти модели, вы соглашаетесь с Tongyi Qianwen LICENSE AGREEMENT
Для модели 110B также доступна translate-версия.
Старшие модели показывают неплохое знание русского языка – но рекомендуется ставить температуру пониже (около 0.2) и явно прописывать «отвечать на русском языке».
Блог-запись о запуске моделей
Используя эти модели, вы соглашаетесь с Tongyi Qianwen LICENSE AGREEMENT
Для модели 110B также доступна translate-версия.
Qwen 2 72B Instruct ? qwen/qwen-2-72b-instruct | 0.14 | 0.14 | 32768 | 7 июн | нет |
Qwen 2 7B Instruct qwen/qwen-2-7b-instruct | 0.03 | 0.03 | 32768 | 18 июл | нет |
Qwen2.5 72B Instruct ? qwen/qwen-2.5-72b-instruct ролеплей и общие вопросы | 0.60 | 0.60 | 128000 | 21 сен | нет |
Qwen2.5 7B Instruct ? qwen/qwen-2.5-7b-instruct | 0.04 | 0.04 | 128000 | 16 окт | нет |
Qwen2.5 Coder 32B Instruct ? qwen/qwen-2.5-coder-32b-instruct недорогая для программирования программирование и общие вопросы | 0.05 | 0.05 | 128000 | 12 ноя | нет |
Российские модели Сайга и Вихрь – альтернатива YaGPT и GigaChat
Сайга – третья модель, сфокусированная на российском языке после моделей от Яндекса (YaGPT) и Сбера (GigaChat) – и сравнима с ними. Подробнее об истории возникновения – в нашей статье на Хабре: https://habr.com/ru/articles/767588/
Также здесь представлены модели от команды VikhrModels, которая также с 2024 года начала дотренировывать опенсорсные модели на русских данных. Они также рекомендуются к знакомству – по метрикам они не хуже gpt-3.5 и могут приближаться к gpt-4o-mini.
Серия моделей OMF включает в себя «холодный старт» – т.е. загрузку по мере запроса. Если на первый запрос вы не получили ответ по таймауту, просто подождите 1–2 минуты и попробуйте снова – весьма вероятно, что модель загрузится.
Также здесь представлены модели от команды VikhrModels, которая также с 2024 года начала дотренировывать опенсорсные модели на русских данных. Они также рекомендуются к знакомству – по метрикам они не хуже gpt-3.5 и могут приближаться к gpt-4o-mini.
Серия моделей OMF включает в себя «холодный старт» – т.е. загрузку по мере запроса. Если на первый запрос вы не получили ответ по таймауту, просто подождите 1–2 минуты и попробуйте снова – весьма вероятно, что модель загрузится.
Saiga/Llama3 8B (российский разработчик) ? OMF-R-IlyaGusev/saiga_llama3_8b Open Models Fan За вызов: 0.10 р. Hugging Face | 0.10 | 0.10 | 8192 | 19 июл | нет |
Vikhr-Llama3.1-8B-Instruct-R-21-09-24 (российский разработчик) ? OMF-R-Vikhr-Llama3.1-8B-Instruct-R-21-09-24 Open Models Fan За вызов: 0.10 р. Hugging Face | 0.10 | 0.10 | 16000 | 22 сен | нет |
Vikhr-Nemo-12B-Instruct-R-21-09-24 (российский разработчик) ? OMF-R-Vikhr-Nemo-12B-Instruct-R-21-09-24 Open Models Fan За вызов: 0.15 р. Hugging Face | 0.10 | 0.10 | 16000 | 22 сен | нет |
Сайга MistralNemo 12B v1 (российский разработчик) ? OMF-R-IlyaGusev/saiga_nemo_12b Open Models Fan За вызов: 0.15 р. ролеплей Hugging Face | 0.10 | 0.10 | 8192 | 3 ноя | нет |
Опенсорс модели
Различные опенсорс модели. Эти модели в первую очередь тренировались на английском языке (учтите это), но и на русском могут показывать неплохое качество. В отличие от коммерческих моделей они, как правило, не используют автомодерацию запросов по этическому признаку. Читайте описания к модели по знаку ?". Как правило, модели с большим числом параметров (70B против 7B) более точны и лучше рассуждают, но и более дороги в обработке.
В тегах указано, на чем специализируется модель. Если тег не указан – модель многоцелевая, т.е. чаще всего обычное следование инструкциям, но лучше прочитать описание.
Если на русский запрос они выдают не очень хороший результат, попробуйте обращаться к ним на английском, или попробуйте наши translate-версии (ниже). Особенно рекомендуется translate-версии для ролеплейных моделей (если вы не пишете на английском)
В тегах указано, на чем специализируется модель. Если тег не указан – модель многоцелевая, т.е. чаще всего обычное следование инструкциям, но лучше прочитать описание.
Если на русский запрос они выдают не очень хороший результат, попробуйте обращаться к ним на английском, или попробуйте наши translate-версии (ниже). Особенно рекомендуется translate-версии для ролеплейных моделей (если вы не пишете на английском)
Модель и ID | Руб за 1000 символов входных данных | Руб за 1000 символов генерации модели | Размер конте кста | Дата обнов ления | Авто моде ра ция |
Gryphe: MythoMax L2 13B ? gryphe/mythomax-L2-13b дешевая 13B | 0.04 | 0.04 | 4096 | 8 мар | нет |
Mythalion 13B ? pygmalionai/mythalion-13b ролеплей | 0.16875 | 0.16875 | 8192 | 16 янв | нет |
lzlv 70B (in test) ? lizpreciatior/lzlv-70b-fp16-hf ролеплей | 0.105 | 0.1425 | 4096 | 16 янв | нет |
OpenChat 7B ? openchat/openchat-7b рекомендуется | 0.027 | 0.027 | 8192 | 6 июн | нет |
MythoMist 7B ? gryphe/mythomist-7b ролеплей | 0.04 | 0.04 | 32768 | 16 янв | нет |
Toppy M 7B ? undi95/toppy-m-7b ролеплей | 0.04 | 0.04 | 32768 | 16 янв | нет |
OpenHermes 2.5 Mistral 7B ? teknium/openhermes-2.5-mistral-7b | 0.04 | 0.04 | 4096 | 10 дек 23 | нет |
Dolphin 2.6 Mixtral 8x7B ? cognitivecomputations/dolphin-mixtral-8x7b дешевая 8x7B с большим контекстом ролеплей и общие вопросы | 0.045 | 0.045 | 32000 | 20 янв | нет |
Nous: Hermes 2 Mixtral 8x7B DPO ? nousresearch/nous-hermes-2-mixtral-8x7b-dpo дешевая 8x7B с большим контекстом ролеплей и общие вопросы | 0.045 | 0.045 | 32000 | 1 мар | нет |
Midnight Rose 70B ? sophosympatheia/midnight-rose-70b топ ролеплей от 24 марта | 0.15 | 0.15 | 4095 | 24 мар | нет |
Databricks: DBRX 132B Instruct ? databricks/dbrx-instruct | 0.15 | 0.15 | 30000 | 4 апр | нет |
WizardLM-2 8x22B ? microsoft/wizardlm-2-8x22b топ ролеплей от 17 апреля ролеплей и общие вопросы | 0.15 | 0.15 | 65536 | 18 апр | нет |
WizardLM-2 7B ? microsoft/wizardlm-2-7b | 0.04 | 0.04 | 32000 | 18 апр | нет |
LLaMA v3 8B Instruct ? meta-llama/llama-3-8b-instruct | 0.035 | 0.035 | 8192 | 19 апр | нет |
LLaMA v3 70B Instruct ? meta-llama/llama-3-70b-instruct | 0.135 | 0.135 | 8192 | 19 апр | нет |
Llama 3 Lumimaid 8B (large-context) ? neversleep/llama-3-lumimaid-8b-large ролеплей | 0.04 | 0.34 | 24576 | 6 мая | нет |
Phi-3 Medium Instruct 14B ? microsoft/phi-3-medium-128k-instruct | 0.15 | 0.15 | 128000 | 27 мая | нет |
Phi-3 Mini Instruct 3.8B ? microsoft/phi-3-mini-128k-instruct | 0.015 | 0.015 | 128000 | 27 мая | нет |
Llama 3 Lumimaid 70B ? neversleep/llama-3-lumimaid-70b int4 квантизация ролеплей | 0.67 | 0.90 | 8192 | 29 мая | нет |
Euryale-v2.1-70B ? sao10k/euryale-70b ролеплей | 0.22 | 0.22 | 16000 | 30 июн | нет |
DeepSeek-Coder-V2 236B MoE (v2.5) ? deepseek/deepseek-coder топ программирование провайдер логирует данные | 0.04 | 0.05 | 128000 | 11 сен | нет |
DeepSeek-V2-Chat 236B MoE (v2.5) ? deepseek/deepseek-chat провайдер логирует данные общие вопросы | 0.04 | 0.05 | 128000 | 11 сен | нет |
NVIDIA Nemotron 4 340B Instruct ? nvidia/nemotron-4-340b-instruct выключена провайдером топ опенсорс переводчик от 25 июня общие вопросы | 0.63 | 0.63 | 4096 | 25 июн | нет |
Magnum 72B ? alpindale/magnum-72b квантизация int4 ролеплей | 0.50 | 0.60 | 16384 | 12 июл | нет |
Llama 3.1 405B Instruct ? meta-llama/llama-3.1-405b-instruct Базовый+GPT-4 самая большая опенсорс модель от 23 июля fp8 квантизация | 0.50 | 0.50 | 128000 | 23 июл | нет |
Llama 3.1 8B Instruct meta-llama/llama-3.1-8b-instruct | 0.027 | 0.027 | 128000 | 24 июл | нет |
Llama 3.1 70B Instruct meta-llama/llama-3.1-70b-instruct | 0.12 | 0.12 | 128000 | 24 июл | нет |
Mistral Nemo 12B Celeste ? nothingiisreal/mn-celeste-12b поддерживает русский ролеплей | 0.23 | 0.23 | 32000 | 8 авг | нет |
Hermes 3 405B Instruct ? nousresearch/hermes-3-llama-3.1-405b ролеплей и общие вопросы | 0.70 | 0.70 | 128000 | 17 авг | нет |
Llama 3.1 Euryale 70B v2.2 ? sao10k/l3.1-euryale-70b квантизация fp8 ролеплей Hugging Face | 0.25 | 0.25 | 8192 | 28 авг | нет |
Mistral Nemo 12B Starcannon ? aetherwiing/mn-starcannon-12b ролеплей | 0.30 | 0.30 | 12000 | 28 авг | нет |
Llama 3.2 3B Instruct ? meta-llama/llama-3.2-3b-instruct | 0.015 | 0.015 | 128000 | 26 сен | нет |
Llama 3.2 90B Instruct ? meta-llama/llama-3.2-90b-instruct | 0.15 | 0.15 | 128000 | 26 сен | нет |
Grok Beta от xAI ? x-ai/grok-beta Базовый+GPT-4 | 0.75 | 2.1 | 128000 | 21 окт | нет |
Rocinante 12B ? thedrummer/rocinante-12b ролеплей | 0.04 | 0.075 | 32768 | 16 окт | нет |
NVIDIA: Llama 3.1 Nemotron 70B Instruct ? nvidia/llama-3.1-nemotron-70b-instruct | 0.15 | 0.15 | 128000 | 21 окт | нет |
Translate-версии опенсорс моделей
Translate-версии опенсорс моделей. Одна из фишек нашего сервиса. Вы можете отправить запрос на русском, он будет автоматически переведен на английский и отправлен нейросети. Результат обработки (на английском) будет автоматически переведён на русский. Крайне полезна с учетом того, что опенсорс нейросети как правило в основном тренировались на английском языке и выдают на нем значительно лучшие результаты.
Translate-версия Gryphe: MythoMax L2 13B translate-gryphe/mythomax-L2-13b | 0.06 | 0.06 | 4096 | 12 янв | нет |
Mistral 7B Instruct v0.1 with Ru-En translation (beta) ? translate-mistralai/mistral-7b-instruct | 0.06 | 0.06 | 8192 | 24 окт 23 | нет |
Mythalion 13B with Ru-En translation (beta) ? translate-pygmalionai/mythalion-13b | 0.17875 | 0.17875 | 8192 | 17 ноя 23 | нет |
lzlv 70B (in test) with Ru-En translation (beta) ? translate-lizpreciatior/lzlv-70b-fp16-hf | 0.125 | 0.1625 | 4096 | 17 ноя 23 | нет |
Translate-версия OpenChat 7B ? translate-openchat/openchat-7b | 0.037 | 0.037 | 8192 | 6 июн | нет |
Translate-версия MythoMist 7B translate-gryphe/mythomist-7b | 0.06 | 0.06 | 32768 | 10 дек 23 | нет |
Translate-версия Toppy M 7B translate-undi95/toppy-m-7b | 0.06 | 0.06 | 4096 | 10 дек 23 | нет |
Translate-версия OpenHermes 2.5 Mistral 7B translate-teknium/openhermes-2.5-mistral-7b | 0.06 | 0.06 | 4096 | 10 дек 23 | нет |
Translate-версия Dolphin 2.6 Mixtral 8x7B translate-cognitivecomputations/dolphin-mixtral-8x7b дешевая 8x7B с большим контекстом | 0.065 | 0.065 | 32000 | 1 мар | нет |
Translate-версия Nous: Hermes 2 Mixtral 8x7B DPO translate-nousresearch/nous-hermes-2-mixtral-8x7b-dpo дешевая 8x7B с большим контекстом | 0.065 | 0.065 | 32000 | 1 мар | нет |
Midnight Rose 70B (Translate-версия) translate-sophosympatheia/midnight-rose-70b топ ролеплей от 24 марта | 0.15 | 0.15 | 4095 | 24 мар | нет |
Databricks: DBRX 132B Instruct (Translate-версия) translate-databricks/dbrx-instruct | 0.17 | 0.17 | 30000 | 4 апр | нет |
WizardLM-2 8x22B (translate-версия) translate-microsoft/wizardlm-2-8x22b топ ролеплей от 17 апреля | 0.17 | 0.17 | 65536 | 18 апр | нет |
Mistral: Mixtral 8x22B Instruct (translate-версия) translate-mistralai/mixtral-8x22b-instruct | 0.17 | 0.17 | 65536 | 18 апр | нет |
WizardLM-2 7B (translate-версия) translate-microsoft/wizardlm-2-7b | 0.06 | 0.06 | 32000 | 18 апр | нет |
Llama 3 Lumimaid 8B (large-context) (translate-версия) translate-neversleep/llama-3-lumimaid-8b-large ролеплей | 0.04 | 0.34 | 24576 | 6 мая | нет |
Phi-3 Mini Instruct 3.8B (translate-версия) translate-microsoft/phi-3-mini-128k-instruct | 0.025 | 0.025 | 128000 | 27 мая | нет |
Llama 3 Lumimaid 70B (translate-версия) translate-neversleep/llama-3-lumimaid-70b ролеплей | 0.67 | 0.90 | 8192 | 27 мая | нет |
Euryale-v2.1-70B (translate-версия) translate-sao10k/euryale-70b ролеплей | 0.22 | 0.22 | 16000 | 30 июн | нет |
Magnum 72B (translate-версия) translate-alpindale/magnum-72b ролеплей | 0.50 | 0.60 | 16384 | 12 июл | нет |
Самые свежие опенсорс модели Open Models Fan (бета-тест)
Самые свежие опенсорс модели серии Open Models Fan (могут быть недоступны на Тестовом тарифе).
Особенности:
– Модели доступны для экспериментирования, а не для реальной автоматизации (но они также доступны через API). Поэтому, пожалуйста, используйте их вручную или на малом объеме автоматических запросов (до 500). Если вам нужно интенсивно работать с ними, рекомендуем развернуть их на собственном сервере. Если мы увидим большое число автоматических запросов от вас к этим моделям, мы оставляем за собой право временно заблокировать ваш аккаунт
– Следствие – мы берем плату за вызов и небольшую плату за входные и выходные символы. Таким образом, эти модели более выгодно использовать для долгого ролеплея с большим контекстом (если они это поддерживают)
– Скорость вывода – 10–40 токенов в секунду, в зависимости от размера модели.
– Модели 70B и выше поставляются в квантизации FP8 – создавая баланс между загрузкой серверов и качеством. В целом, падение качества по сравнению с FP16 и FP32 (оригинал) довольно небольшое.
– Размер контекста не гарантирован (в процессе выяснения у провайдера)
– Обычно опенсорсные файнтюны моделей в первую очередь предназначены для ролеплея и написания историй (часто – на английском, если не указано обратное). Для общих кейсов мы рекомендуем обычные модели.
– Серия моделей OMF включает в себя «холодный старт» – т.е. загрузку по мере запроса. Если на первый запрос вы не получили ответ по таймауту, просто подождите 1–2 минуты и попробуйте снова – весьма вероятно, что модель загрузится.
Пожалуйста, поддержите опенсорсную альтернативу проприетарным моделям!
Особенности:
– Модели доступны для экспериментирования, а не для реальной автоматизации (но они также доступны через API). Поэтому, пожалуйста, используйте их вручную или на малом объеме автоматических запросов (до 500). Если вам нужно интенсивно работать с ними, рекомендуем развернуть их на собственном сервере. Если мы увидим большое число автоматических запросов от вас к этим моделям, мы оставляем за собой право временно заблокировать ваш аккаунт
– Следствие – мы берем плату за вызов и небольшую плату за входные и выходные символы. Таким образом, эти модели более выгодно использовать для долгого ролеплея с большим контекстом (если они это поддерживают)
– Скорость вывода – 10–40 токенов в секунду, в зависимости от размера модели.
– Модели 70B и выше поставляются в квантизации FP8 – создавая баланс между загрузкой серверов и качеством. В целом, падение качества по сравнению с FP16 и FP32 (оригинал) довольно небольшое.
– Размер контекста не гарантирован (в процессе выяснения у провайдера)
– Обычно опенсорсные файнтюны моделей в первую очередь предназначены для ролеплея и написания историй (часто – на английском, если не указано обратное). Для общих кейсов мы рекомендуем обычные модели.
– Серия моделей OMF включает в себя «холодный старт» – т.е. загрузку по мере запроса. Если на первый запрос вы не получили ответ по таймауту, просто подождите 1–2 минуты и попробуйте снова – весьма вероятно, что модель загрузится.
Пожалуйста, поддержите опенсорсную альтернативу проприетарным моделям!
Модель и ID | Руб за 1000 символов входных данных | Руб за 1000 символов генерации модели | Размер конте кста | Дата обнов ления | Авто моде ра ция |
Saiga/Llama3 8B (российский разработчик) ? OMF-R-IlyaGusev/saiga_llama3_8b Open Models Fan За вызов: 0.10 р. Hugging Face | 0.10 | 0.10 | 8192 | 19 июл | нет |
Suzume 8B ? OMF-lightblue/suzume-llama-3-8B-multilingual Open Models Fan За вызов: 0.25 р. Hugging Face | 0.10 | 0.10 | 8192 | 19 июл | нет |
Smaug-Llama-3-70B-Instruct ? OMF-abacusai/Smaug-Llama-3-70B-Instruct Open Models Fan За вызов: 0.50 р. ролеплей и общие вопросы Hugging Face | 0.25 | 0.25 | 8192 | 19 июл | нет |
Kunoichi DPO v2 7B ? OMF-SanjiWatsuki/Kunoichi-DPO-v2-7B Open Models Fan За вызов: 0.25 р. ролеплей Hugging Face | 0.10 | 0.10 | 8192 | 19 июн | нет |
TenyxChat-DaybreakStorywriter-70B ? OMF-DaybreakStorywriterXTenyxChat-70B Open Models Fan За вызов: 0.50 р. ролеплей и общие вопросы Hugging Face | 0.25 | 0.25 | 8192 | 19 июн | нет |
New Dawn Llama-3-70B 32K v1.0 ? OMF-New-Dawn-Llama-3-70B-32K-v1.0 Open Models Fan За вызов: 0.50 р. ролеплей Hugging Face | 0.25 | 0.25 | 8192 | 19 июл | нет |
Sao10K: L3 8B Lunaris v1 ? OMF-sao10k/l3-8b-lunaris-v1 Open Models Fan За вызов: 0.25 р. ролеплей Hugging Face | 0.10 | 0.10 | 8192 | 19 июл | нет |
MG-FinalMix-72B (Magnum-72B based) ? OMF-Undi95/MG-FinalMix-72B Open Models Fan За вызов: 0.50 р. ролеплей Hugging Face | 0.25 | 0.25 | 16000 | 19 июл | нет |
Tess v2.5.2 Qwen2 72B ? OMF-Tess-v2.5.2-Qwen2-72B Open Models Fan За вызов: 0.50 р. Hugging Face | 0.25 | 0.25 | 16000 | 19 июл | нет |
Smaug Qwen2 72B Instruct ? OMF-abacusai/Smaug-Qwen2-72B-Instruct Open Models Fan За вызов: 0.50 р. ролеплей и общие вопросы Hugging Face | 0.25 | 0.25 | 16000 | 22 июл | нет |
Vicuna 13B v1.5 (ретро) ? OMF-lmsys/vicuna-13b-v1.5 Open Models Fan За вызов: 0.25 р. ретро ролеплей Hugging Face | 0.10 | 0.10 | 4096 | 30 мар 23 | нет |
Qwen2 Math 72B Instruct ? OMF-Qwen/Qwen2-Math-72B-Instruct Open Models Fan За вызов: 0.50 р. математика Hugging Face | 0.25 | 0.25 | 16000 | 10 авг | нет |
Vikhr-Llama3.1-8B-Instruct-R-21-09-24 (российский разработчик) ? OMF-R-Vikhr-Llama3.1-8B-Instruct-R-21-09-24 Open Models Fan За вызов: 0.10 р. Hugging Face | 0.10 | 0.10 | 16000 | 22 сен | нет |
Vikhr-Nemo-12B-Instruct-R-21-09-24 (российский разработчик) ? OMF-R-Vikhr-Nemo-12B-Instruct-R-21-09-24 Open Models Fan За вызов: 0.15 р. Hugging Face | 0.10 | 0.10 | 16000 | 22 сен | нет |
Qwen2.5-Math-72B-Instruct ? OMF-Qwen/Qwen2.5-Math-72B-Instruct Open Models Fan За вызов: 0.50 р. математика Hugging Face | 0.25 | 0.25 | 16000 | 25 сен | нет |
MN-12B-Starcannon-v3 ? OMF-nothingiisreal/MN-12B-Starcannon-v3 Open Models Fan За вызов: 0.20 р. ролеплей Hugging Face | 0.10 | 0.10 | 16000 | 25 сен | нет |
Qwen2.5-72B-Instruct-abliterated ? OMF-Qwen2.5-72B-Instruct-abliterated Open Models Fan За вызов: 0.50 р. ролеплей и общие вопросы Hugging Face | 0.25 | 0.25 | 16000 | 16 окт | нет |
EVA Qwen2.5-72B v0.0 ? OMF-EVA-Qwen2.5-72B-v0.0 Open Models Fan За вызов: 0.50 р. ролеплей | 0.25 | 0.25 | 8192 | 3 ноя | нет |
Сайга MistralNemo 12B v1 (российский разработчик) ? OMF-R-IlyaGusev/saiga_nemo_12b Open Models Fan За вызов: 0.15 р. ролеплей Hugging Face | 0.10 | 0.10 | 8192 | 3 ноя | нет |
EVA Qwen2.5-72B v0.1 ? OMF-EVA-Qwen2.5-72B-v0.1 Open Models Fan За вызов: 0.50 р. ролеплей | 0.25 | 0.25 | 8192 | 8 ноя | нет |
Text-to-image (генерация изображений по тексту)
Отчет: сравнение моделей генерации изображений
OpenAI Dall-E
Модели для генерации изображений по тексту.
Доступны только для платных пользователей тарифа Базовый+GPT4 – на тестовом тарифе не доступны!
Стоимость: Dall-E 2 от 3 р. 10 к., Dall-E 3 от 7 р. 76 к. – подробнее стоимости генерации при разном разрешении и качестве по кнопке ?"
Особенности показа: каждый символ стоит 1 копейку, в статистике генерируется число входных символов в соответствии с прайсом.
Для ознакомления с возможностями Dalle-3 рекомендуем статью от OpenAI Что нового в Dalle-3
Доступны только для платных пользователей тарифа Базовый+GPT4 – на тестовом тарифе не доступны!
Стоимость: Dall-E 2 от 3 р. 10 к., Dall-E 3 от 7 р. 76 к. – подробнее стоимости генерации при разном разрешении и качестве по кнопке ?"
Особенности показа: каждый символ стоит 1 копейку, в статистике генерируется число входных символов в соответствии с прайсом.
Для ознакомления с возможностями Dalle-3 рекомендуем статью от OpenAI Что нового в Dalle-3
OpenAI: Dall-E 2 ? openai/dall-e-2 Базовый+GPT-4 (не Тестовый) генерация изображений | 10.0 | 0.0 | 4096 | 13 мар | нет |
OpenAI: Dall-E 3 ? openai/dall-e-3 Базовый+GPT-4 (не Тестовый) топ! генерация изображений | 10.0 | 0.0 | 4096 | 13 мар | нет |
Другие модели (FLUX, Stable Diffusion, Playground)
Модели для генерации изображений по тексту.
Доступны только для платных пользователей тарифа Базовый+GPT4 – на тестовом тарифе не доступны!
Подробнее о стоимости генерации при разном разрешении и качестве по кнопке ?", там же описание дополнительных параметров, доступных при вызове модели.
Особенности показа: каждый символ стоит 1 копейку, в статистике генерируется число входных символов в соответствии с прайсом.
Доступны только для платных пользователей тарифа Базовый+GPT4 – на тестовом тарифе не доступны!
Подробнее о стоимости генерации при разном разрешении и качестве по кнопке ?", там же описание дополнительных параметров, доступных при вызове модели.
Особенности показа: каждый символ стоит 1 копейку, в статистике генерируется число входных символов в соответствии с прайсом.
Dummy Image ? img-dummy/image За вызов: 0.005 р. | 0.00 | 0.00 | 4096 | 13 мар | нет |
Stable Diffusion XL v1.0 ? img-stable/stable-diffusion-xl-1024 Базовый+GPT-4 (не Тестовый) генерация изображений 0.95 р. за 1 изображение | 10.0 | 0.0 | 2000 | 30 июн | нет |
Playground v2.5 ? img-playground-v2-5-1024px Базовый+GPT-4 (не Тестовый) генерация изображений 1.45 р. за 1 изображение | 10.0 | 0.0 | 2000 | 12 июл | да |
FLUX.1 [schnell] ? img-flux/schnell Базовый+GPT-4 (не Тестовый) генерация изображений 1.8 р. за изображение | 10.0 | 0.0 | 2048 | 28 авг | нет |
FLUX.1 [dev] ? img-flux/dev Базовый+GPT-4 (не Тестовый) генерация изображений 7.5 р. за изображение | 10.0 | 0.0 | 2000 | 28 авг | нет |
FLUX.1 [pro] ? img-flux/pro Базовый+GPT-4 (не Тестовый) генерация изображений 14.9 р. за изображение | 10.0 | 0.0 | 2000 | 28 авг | нет |
FLUX.1.1 [pro] ? img-flux/pro1.1 Базовый+GPT-4 (не Тестовый) генерация изображений 14.9 р. за изображение | 10.0 | 0.0 | 2000 | 4 окт | нет |
Embeddings
Embeddings-модели для вычисления семантической схожести текстов. Для эндпойнта v1/embeddings. (Если вы не знаете, что это такое, оно вам не нужно).
Пример реализации RAG с использованием наших эмбеддингов доступен у нас на Github
Пример реализации RAG с использованием наших эмбеддингов доступен у нас на Github
Старые (v2)
Text Embedding Ada v2 ? text-embedding-ada-002 | 0.03 | 0.00 | 1024 | 13 мар | нет |
Новые (v3)
OpenAI: text-embedding-3-small (тест) emb-openai/text-embedding-3-small | 0.006 | 0.0 | 32000 | 13 мар | нет |
OpenAI: text-embedding-3-large (тест) emb-openai/text-embedding-3-large | 0.035 | 0.0 | 32000 | 13 мар | нет |
Vision-модели (вопросы по изображению, OCR)
Предназначены для совместной обработки текста и изображений.
Временные особенности:
Временные особенности:
- Для запуска любого запроса вам нужно иметь определенный минимум на балансе (нажмите ? чтобы узнать, какой именно минимум, от 5 р. для LLava до 50 р. для GPT-4-Vision)
- Стоимость приведена «за токен», а не «за символ». По результатам запроса провайдером будут переведены ваши изображения в стоимость входных токенов, и за них будет взята плата.
- Токены вычисляются провайдером; мы не комментируем их вычисления и не принимаем по этому поводу претензии.
- Пример вызова по API есть в Документации API; веб-интерфейс доступен через меню «Сервисы».
Google: Gemini Pro Vision (preview) ? vis-google/gemini-pro-vision Базовый+GPT-4 скидка 90% на обработку изображения 0.04 р. за 1 изображение (со скидкой) | 0.05 | 0.10 | 65536 | 7 мая | нет |
OpenAI: GPT-4 Vision (preview) ? vis-openai/gpt-4-vision-preview Базовый+GPT-4 около 1.7 р. за 1 изображение | 2.00 | 6.00 | 128000 | 1 мар | да |
Anthropic: Claude 3 Sonnet (vision) ? vis-anthropic/claude-3-sonnet Базовый+GPT-4 около 0.7 р. за изображение | 0.6 | 3.0 | 200000 | 5 мар | да |
Anthropic: Claude 3 Opus (vision) ? vis-anthropic/claude-3-opus Базовый+GPT-4 около 3.3 р. за изображение | 3.0 | 15.0 | 200000 | 5 мар | да |
Anthropic: Claude 3 Haiku (vision) ? vis-anthropic/claude-3-haiku Базовый+GPT-4 около 0.1 р за 1 изображение | 0.066 | 0.3 | 200000 | 14 мар | да |
OpenAI: GPT-4 Vision Turbo ? vis-openai/gpt-4-turbo Базовый+GPT-4 топ! около 1.7 р. за 1 изображение | 2.00 | 6.00 | 128000 | 27 апр | да |
Google: Gemini Pro 1.5 (vision-вариант) ? vis-google/gemini-pro-1.5 Базовый+GPT-4 0.60 р. за 1 изображение | 0.75 | 2.0 | 1000000 | 10 апр | нет |
OpenAI: GPT-4o (vision) ? vis-openai/gpt-4o Базовый+GPT-4 топ! | 1.10 | 3.30 | 128000 | 31 мая | да |
Google: Gemini Flash 1.5 (vision-версия) ? vis-google/gemini-flash-1.5 Базовый+GPT-4 очень дешевая 0.03 р. за изображение | 0.028 | 0.08 | 1000000 | 14 авг | нет |
Anthropic: Claude 3.5 Sonnet (vision) (новая от 22 октября) ? vis-anthropic/claude-3.5-sonnet Базовый+GPT-4 около 0.7 р. за изображение | 0.6 | 3.0 | 200000 | 22 окт | да |
OpenAI: gpt-4o-mini (vision-версия) vis-openai/gpt-4o-mini Базовый+GPT-4 (не Тестовый) около 0.08 р. за изображение | 0.037 | 0.15 | 128000 | 27 июл | да |
OpenAI: GPT-4o (2024-08-06) (vision-версия) ? vis-openai/gpt-4o-2024-08-06 Базовый+GPT-4 топ! около 0.15 р. за изображение | 0.55 | 2.20 | 128000 | 6 авг | да |
Qwen2-VL 72B Instruct ? vis-qwen/qwen-2-vl-72b-instruct Базовый+GPT-4 За вызов: 0.07 р. топ! около 0.05 р. за изображение | 0.60 | 0.60 | 32768 | 21 сен | нет |
Mistral: Pixtral 12B ? vis-mistralai/pixtral-12b За вызов: 0.05 р. около 0.2 р. за изображение | 0.08 | 0.08 | 4096 | 21 сен | нет |
Llama 3.2 11B Vision Instruct ? vis-meta-llama/llama-3.2-11b-vision-instruct Базовый и выше (не Тестовый) За вызов: 0.02 р. около 0.03 р. за изображение | 0.055 | 0.055 | 128000 | 26 сен | нет |
Llama 3.2 90B Vision Instruct ? vis-meta-llama/llama-3.2-90b-vision-instruct Базовый и выше (не Тестовый) За вызов: 0.03 р. около 0.04 р. за изображение | 0.22 | 0.22 | 128000 | 26 сен | нет |
Speech-To-Text-модели (распознавание речи)
Предназначены для распознавания речи.
Временные особенности:
Временные особенности:
- Токен = 1 секунде; приведена цена за 1000 токенов. Округление секунд идет в большую сторону.
- Пример вызова по API есть в Документации API.
- Также есть клиент для тестирования распознавания – доступен на странице Инструменты либо через меню.
Модель и ID | Руб за 1000 символов входных данных | Руб за 1000 символов генерации модели | Размер конте кста | Дата обнов ления | Авто моде ра ция |
OpenAI: Whisper (v3, сторонний провайдер, тест) ? stt-openai/whisper-1 1.5 р за минуту | 25.00 | 0.00 | 2000 | 28 июн | нет |
Text-to-Speech-модели (генерация речи)
Предназначены для генерации речи по тексту.
Условия использования моделей OpenAI: вы обязаны явно декларировать, что используете голос ИИ.
Временные особенности:
Условия использования моделей OpenAI: вы обязаны явно декларировать, что используете голос ИИ.
Временные особенности:
- Не поддерживают стриминг
- Пример вызова по API есть в Документации API.
- Также есть клиент для тестирования генерации – доступен на странице Инструменты либо через меню.
Модель и ID | Руб за 1000 символов входных данных | Руб за 1000 символов генерации модели | Размер конте кста | Дата обнов ления | Авто моде ра ция |
OpenAI: TTS-1 ? tts-openai/tts-1 | 3.2 | 0.0 | 4096 | 14 июн | да |
OpenAI: TTS-1-HD ? tts-openai/tts-1-hd Базовый+GPT-4 | 6.4 | 0.0 | 4096 | 14 июн | да |
Text-to-Audio-модели (генерация музыки)
Предназначены для генерации музыки по текстовому запросу.
- Пример вызова по API есть в Документации API.
- Также есть клиент для тестирования генерации – доступен на странице Инструменты либо через меню.
Модель и ID | Руб за 1000 символов входных данных | Руб за 1000 символов генерации модели | Размер конте кста | Дата обнов ления | Авто моде ра ция |
Stable Audio (генерация музыки) ? tta-stable/stable-audio Базовый+GPT-4 За вызов: 5.00 р. генерация музыки 5 руб/генерация | 0.0 | 0.0 | 2048 | 28 авг | нет |
Примечания
Автомодерация – означает, что, в соответствии с требованиями поставщика модели автоматически проверяется вход на несоответствие этическим нормам (Terms Of Service конкретной модели). В случае, если запрос не проходит модерацию, возвращается ошибка и деньги не списываются.
Ответ на вопрос «Настоящая ли GPT-4 на сайте, если она не отвечает, что она GPT-4 в чате»