Интернет

Дипфейки: чем они опасны и можно ли их использовать в благих целях
Фото: freepik / freepik

1 сентября 2024

Автор:

Дипфейки: чем они опасны и можно ли их использовать в благих целях

Дипфейки, технология искусственного интеллекта, способная создавать реалистичные подделки видео и фотографий, становится все более распространенной. Ведомости сообщают, что алгоритмы глубокого обучения обрабатывают огромные наборы данных, чтобы создавать новые изображения и видео, делая их практически неотличимыми от реальных.

Дипфейки чаще всего используются для замены лиц на видео или изменения речи, что делает их особенно правдоподобными. Для этого используются нейронные сети, такие как GANs (Generative Adversarial Networks), состоящие из генератора, который создает поддельные изображения, и дискриминатора, который пытается их разоблачить.

Дипфейки имеют как положительные, так и отрицательные стороны. Они могут быть использованы в киноиндустрии для «оживления» умерших актеров или омоложения персонажей, а также в обучении для создания реалистичных симуляций в медицине или в службах безопасности.

Однако дипфейки также представляют серьезную угрозу в виде создания поддельных 18+ видео или мошенничества с использованием поддельных голосов, что может привести к финансовым потерям и разрушению репутации.

Раннее ITinfo сообщало, что Норвежская компания 1X представила нового робота-гуманоида Neo.

Loading...