Компании

OpenAI и Anthropic согласились на проверку своих ИИ-моделей властями США
Фото: freepik / freepik

30 августа 2024

Автор:

OpenAI и Anthropic согласились на проверку своих ИИ-моделей властями США

Компании OpenAI и Anthropic договорились предоставить правительству США доступ к своим новейшим большим языковым моделям искусственного интеллекта для оценки их безопасности до публичного выпуска. Об этом сообщает The Verge.

Это партнерство направлено на повышение уровня безопасности новых ИИ-моделей. Обе компании подписали соглашение с Американским институтом безопасности ИИ, согласно которому они будут предоставлять доступ к моделям как до, так и после их публичного запуска.

Такой шаг способствует совместной оценке рисков и обеспечению безопасности при использовании ИИ. Британский институт безопасности ИИ также принимает участие в этой работе.

В Калифорнии был одобрен «Закон о безопасных и надежных инновациях в области передовых моделей искусственного интеллекта», который требует от компаний, занимающихся разработкой ИИ, принимать определенные меры безопасности перед началом обучения моделей.

Некоторые компании, включая OpenAI и Anthropic, выразили свое недовольство данной инициативой, опасаясь возможных негативных последствий для малых компаний в сфере технологий ИИ.

Белый дом также работает над поощрением компаний самостоятельно усиливать меры безопасности для технологий ИИ. Некоторые ведущие фирмы уже согласились инвестировать в исследования по кибербезопасности и дискриминации, а также заниматься разработкой систем маркировки контента, созданного ИИ.

Ранее iTinfo сообщало, что Samsung обвиняет сторонние зарядки в отслаивании краски.

Loading...