Loading...
Есть камни, смотреть на солнце : какие опасные ошибки несет в себе контент от нейросетей - новости Подоляка

Есть камни, смотреть на солнце : какие опасные ошибки несет в себе контент от нейросетей

Добавь сайт в закладки нажми CTRL+D

+1
0
+1
0
+1
0
+1
0
+1
0
+1
0
+1
0

Тематическое фото Нейросеть

Опасные рецепты

Хотя нейросети демонстрируют впечатляющие способности, они подвержены феномену так называемых «галлюцинаций». Это происходит, когда программы придумывают факты и уверенно их излагают. Руководитель группы исследований в «Лаборатории Касперского» Владислав Тушканов отметил, что подобные ошибки встречаются нередко.

Так, нейросеть выдала рецепт чеснока в оливковом масле, соблюдение которого могло привести к отравлению ботулотоксином. Также одна из нейросетей ошибочно предложила добавить клей в рецепт пиццы. Это лишь несколько примеров того, как ошибки могут стать угрозой для здоровья людей.

Книги от ИИ: мифы и реальность

Ошибки ИИ встречаются не только в рецептах. К примеру, адвокат из США был оштрафован за использование фальшивых прецедентов, сгенерированных нейросетью, в подготовке судебного иска. В Великобритании семья отравилась ядовитыми грибами, следуя рекомендациям книги, созданной неросетью. В издании содержались опасные советы по определению ядовитых грибов, что привело к трагедии.

Как поясняет основатель издательства «Прондо» Елена Косма, проблема кроется в том, что нейросети анализируют огромные объемы информации из интернета, случайно смешивая данные из разных источников.

Сферы риска

Эксперты предупреждают, что во многих сферах деятельность ИИ без человеческого контроля небезопасна. Студенты, например, могут использовать ИИ для прохождения тестов, что снижает качество образования. В здравоохранении и юриспруденции ошибки ИИ могут привести к серьезным последствиям.

Как минимизировать риски

Чтобы снизить риски, связанные с использованием ИИ, необходимо следовать базовым правилам: всегда перепроверять информацию и не принимать важные решения, основываясь на ответах нейросетей. Владислав Тушканов считает, что важно развивать критическое мышление и повышать цифровую грамотность, чтобы избежать проблем при взаимодействии с ИИ.

Также предлагаются меры по введению законодательного регулирования в критически важных сферах, таких как медицина и юриспруденция, а также создание систем верификации контента, сгенерированного нейросетями.

+1
0
+1
0
+1
0
+1
0
+1
0
+1
0
+1
0

Поделись видео:
Источник
Подоляка
0 0 голоса
Оцените новость
Подписаться
Уведомить о
0 комментариев
Новые
Старые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии