Оффтоп
19 августа 2024
Автор: Александра Горохова
ChatGPT привел целую семью к отравлению ядовитыми грибами
В Великобритании семья, увлекающаяся тихой охотой, попала в больницу после отравления ядовитыми грибами. Причиной трагедии стала книга о грибах, найденная на Amazon, в которой содержались опасные ошибки, в том числе советы по определению ядовитых грибов по вкусу и запаху. Как выяснилось, эта книга была написана с помощью нейросети ChatGPT.
Глава семейства, который следовал советам из этой книги, был уверен, что сбор грибов безопасен. Однако использование ChatGPT привело к тому, что в книге было множество ошибок. В ней отсутствовала точная информация о съедобных и ядовитых видах, а некоторые рекомендации были попросту опасны.
Журналисты The Guardian провели расследование и обнаружили, что многие книги о грибах на Amazon были написаны с помощью ChatGPT. Они характеризуются неестественным стилем и содержат многочисленные фактические ошибки. В результате скандала Amazon убрал некоторые сомнительные книги с полок, но проблема низкокачественной литературы, созданной с помощью нейросетей, остается актуальной.
Важно помнить, что нейросети могут создавать правдоподобную, но не всегда точную информацию. Поэтому рекомендуется обращаться к достоверным источникам, включая книги от проверенных авторов и ресурсы от уважаемых организаций.
Раннее ITinfo сообщало, что компания Маска xAI выпустила новую версию чат-бота Grok.