Оффтоп

ChatGPT привел целую семью к отравлению ядовитыми грибами
Фото: freepik.com

19 августа 2024

Автор:

ChatGPT привел целую семью к отравлению ядовитыми грибами

В Великобритании семья, увлекающаяся тихой охотой, попала в больницу после отравления ядовитыми грибами. Причиной трагедии стала книга о грибах, найденная на Amazon, в которой содержались опасные ошибки, в том числе советы по определению ядовитых грибов по вкусу и запаху. Как выяснилось, эта книга была написана с помощью нейросети ChatGPT.

Глава семейства, который следовал советам из этой книги, был уверен, что сбор грибов безопасен. Однако использование ChatGPT привело к тому, что в книге было множество ошибок. В ней отсутствовала точная информация о съедобных и ядовитых видах, а некоторые рекомендации были попросту опасны. 

Журналисты The Guardian провели расследование и обнаружили, что многие книги о грибах на Amazon были написаны с помощью ChatGPT. Они характеризуются неестественным стилем и содержат многочисленные фактические ошибки. В результате скандала Amazon убрал некоторые сомнительные книги с полок, но проблема низкокачественной литературы, созданной с помощью нейросетей, остается актуальной. 

Важно помнить, что нейросети могут создавать правдоподобную, но не всегда точную информацию.  Поэтому рекомендуется обращаться к достоверным источникам, включая книги от проверенных авторов и ресурсы от уважаемых организаций.

Раннее ITinfo сообщало, что компания Маска xAI выпустила новую версию чат-бота Grok.

Loading...