Безопасность
14 сентября 2024
Автор: Александра Горохова
OpenAI предупреждает об угрозе биологического оружия от новой ИИ-модели o1
OpenAI, создатель популярного чат-бота ChatGPT, представила новую ИИ-модель o1, которая, по словам компании, работает похоже на человеческий мозг. Однако, в системной карте o1, где описывается работа модели, OpenAI предупредила о «среднем риске» ее несанкционированного использования для разработки биологического оружия. Об этом пишет Forbes.
Это самый высокий уровень риска, который OpenAI когда-либо присваивала своим моделям. В системной карте GPT-4o, представленной в августе, этот риск был оценен как «низкий».
Несмотря на опасения, OpenAI подчеркивает, что угроза исходит только от экспертов в области биологического оружия, поскольку для таких сложных задач необходимы навыки работы в лаборатории, которые ИИ пока не может заменить.
ИИ-модель o1 способна решать сложные задачи в разных областях, включая физику, химию, биологию, математику и программирование. Она успешно справилась с 83% задач на квалификационном экзамене Международной математической олимпиады (IMO), в то время как GPT-4o решила только 13%.
Новая модель доступна пользователям ChatGPT с подписками Plus и Team, а на следующей неделе станет доступна для пользователей с подписками Enterprise и Edu. OpenAI также пообещала открыть доступ к o1-preview и o1-mini и для бесплатных пользователей.
Ранее ITinfo сообщало, что OpenAI, создатель ChatGPT, готовит к запуску новую мощную языковую модель «Strawberry».