Стал возможен fine-tuning новой языковой модели GPT-4o

Стал возможен fine-tuning новой языковой модели GPT-4o

OpenAI открыла для разработчиков возможность дополнительно обучать на собственных данных языковую модель GPT-4o, вышедшую в мае этого года. Она добавлена в список базовых версий, доступных для выбора.

Сообщается, что самостоятельное обучение позволит создать модели, адаптированные под узкоспециальные потребности. Файн-тюнинг доступен на всех платных тарифах, дополнительно корпоративные пользователи бесплатно получат по 1 млн токенов в день для дообучения нейросети.

OpenAI гарантирует пользователям, что все введенные данные будут сохраняться только локально и не будут использоваться для обучения других моделей, то есть ни OpenAI, ни третьи лица не получат к ним доступа. Помимо этого компания внедрила многоуровневые проверки моделей, прошедших fine-tuning, — для выявления сценариев, нарушающих правила пользования.

Чтобы начать файн-тюнинг модели, нужно:

  • зайти в раздел «fine-tuning dashboard» на официальном сайте OpenAI;
  • нажать на «create»;
  • затем в предложенном списке выбрать базовую модель для обучения: gpt-4o-2024-08-06.

Дообучение модели платное: стоимость 1 млн токенов составляет 25 $. А последующее использование дообученной модели обойдётся в 15 $ за 1 млн исходящих токенов и 3,75 $ за 1 млн входящих. В справочном разделе на сайте продукта размещена подробная инструкция о том, как проводить файн-тюниг нейросети. Пока дообучать модель можно только на текстовых данных, другие виды контента не поддерживаются. По сообщению OpenAI, на дообучение в среднем будет уходить около двух часов.

Напомним, что в мае 2024 года OpenAI представила новую языковую модель GPT-4o, которая теперь ляжет в основу ChatGPT. GPT-4o умеет работать со звуковой, текстовой информацией, изображениями. GPT-4o распространяется бесплатно. 

«О» в названии GPT-4o — сокращение от «omni», что по замыслу разработчиков должно передавать всеобщность и универсальность модели. Новая версия GPT работает шустрее своих предшественниц и опережает их и конкурентов во всех тестах. 

Среди особенностей GPT-4o:

  • реагирует на входящий аудио сигнал в среднем за 320 миллисекунд;
  • минимальное время, которое показала модель — 232 миллисекунды, что сравнимо со временем человеческой реакции;
  • синтезируя речь, меняет интонацию, как человек;
  • обладает лучшей памятью;
  • есть поддержка 50 языков;
  • по производительности равна модели GPT-4 Turbo при обработке текста на английском языке и кода;
  • может синтезировать 3D-объекты;
  • намного лучше работает с изображениями;
  • использует как свои собственные знания, так и информацию из Интернета.

Это не весь список доступных преимуществ версии GPT-4o. OpenAI также сообщает, что возможности новой языковой модели будут развёртываться постепенно.

Читайте в блоге:

Что будем искать? Например,VPS-сервер

Мы в социальных сетях