OpenAI открыла для разработчиков возможность дополнительно обучать на собственных данных языковую модель GPT-4o, вышедшую в мае этого года. Она добавлена в список базовых версий, доступных для выбора.
Сообщается, что самостоятельное обучение позволит создать модели, адаптированные под узкоспециальные потребности. Файн-тюнинг доступен на всех платных тарифах, дополнительно корпоративные пользователи бесплатно получат по 1 млн токенов в день для дообучения нейросети.
OpenAI гарантирует пользователям, что все введенные данные будут сохраняться только локально и не будут использоваться для обучения других моделей, то есть ни OpenAI, ни третьи лица не получат к ним доступа. Помимо этого компания внедрила многоуровневые проверки моделей, прошедших fine-tuning, — для выявления сценариев, нарушающих правила пользования.
Чтобы начать файн-тюнинг модели, нужно:
- зайти в раздел «fine-tuning dashboard» на официальном сайте OpenAI;
- нажать на «create»;
- затем в предложенном списке выбрать базовую модель для обучения: gpt-4o-2024-08-06.
Дообучение модели платное: стоимость 1 млн токенов составляет 25 $. А последующее использование дообученной модели обойдётся в 15 $ за 1 млн исходящих токенов и 3,75 $ за 1 млн входящих. В справочном разделе на сайте продукта размещена подробная инструкция о том, как проводить файн-тюниг нейросети. Пока дообучать модель можно только на текстовых данных, другие виды контента не поддерживаются. По сообщению OpenAI, на дообучение в среднем будет уходить около двух часов.
Напомним, что в мае 2024 года OpenAI представила новую языковую модель GPT-4o, которая теперь ляжет в основу ChatGPT. GPT-4o умеет работать со звуковой, текстовой информацией, изображениями. GPT-4o распространяется бесплатно.
«О» в названии GPT-4o — сокращение от «omni», что по замыслу разработчиков должно передавать всеобщность и универсальность модели. Новая версия GPT работает шустрее своих предшественниц и опережает их и конкурентов во всех тестах.
Среди особенностей GPT-4o:
- реагирует на входящий аудио сигнал в среднем за 320 миллисекунд;
- минимальное время, которое показала модель — 232 миллисекунды, что сравнимо со временем человеческой реакции;
- синтезируя речь, меняет интонацию, как человек;
- обладает лучшей памятью;
- есть поддержка 50 языков;
- по производительности равна модели GPT-4 Turbo при обработке текста на английском языке и кода;
- может синтезировать 3D-объекты;
- намного лучше работает с изображениями;
- использует как свои собственные знания, так и информацию из Интернета.
Это не весь список доступных преимуществ версии GPT-4o. OpenAI также сообщает, что возможности новой языковой модели будут развёртываться постепенно.
Читайте в блоге: