Технологии

NIST выпускает инструмент Dioptra для проверки безопасности ИИ-моделей
Фото: freepik / freepik

28 июля 2024

Автор:

NIST выпускает инструмент Dioptra для проверки безопасности ИИ-моделей

Национальный институт стандартов и технологий США (NIST) представил обновленную версию бесплатного онлайн-инструмента Dioptra, предназначенного для оценки рисков, связанных с моделями искусственного интеллекта.

Dioptra помогает разработчикам и пользователям ИИ-моделей анализировать и контролировать потенциальные угрозы, особенно связанные с «отравлением» данных обучения моделей. Он может быть использован для тестирования и анализа моделей, а также для создания симуляций угроз в среде «красной команды».

NIST подчеркивает, что Dioptra особенно полезен для государственных учреждений и малых и средних предприятий, позволяя им оценивать заявления разработчиков ИИ о производительности своих систем.

Выпуск Dioptra является частью инициативы, запущенной указом президента Байдена об искусственном интеллекте. Этот указ поручил NIST помогать в тестировании ИИ-систем, устанавливать стандарты безопасности и требовать от компаний, разрабатывающих модели, уведомлять федеральное правительство и делиться результатами безопасности перед публичным запуском.

Однако у Dioptra есть ограничение: он работает только с моделями, которые можно загрузить и использовать локально. Модели, доступ к которым ограничен через API, такие как GPT-4 от OpenAI, пока не поддерживаются этим инструментом.

Раннее ITinfo сообщало о том, что новая клавиатура Razer «Snap Tap» вызывает споры в CS2.

Loading...