Искусственный интеллект (ИИ) без должного регулирования может начать сеять дезинформацию, что приведет к серьезным последствиям, включая общественные волнения и потерю доверия к информации, сказал в эфире НСН сооснователь компании «Промобот» Олег Кивокурцев.
Глава КПРФ Геннадий Зюганов ранее назвал развитие ИИ «угрозой человечеству». Он отметил, что если люди не смогут его отрегулировать, то человечество «утонет в провокациях», что может закончиться «очень плохо». Депутат вспомнил слова американского миллиардера Илона Маска, который сказал, что если в алгоритм искусственного интеллекта не будет вложена правда, то «мы погибнем». Кивокурцев отметил, что бесконтрольный ИИ может усилить уже существующие социальные проблемы.
«В словах Зюганова и Маска есть доля правды. Искусственный интеллект действительно может стать серьезной угрозой, если его не контролировать. Без надлежащих этических норм и регулирования ИИ может легко стать инструментом для распространения дезинформации и манипуляций. Алгоритмы, которые обучаются на предвзятой или недостоверной информации, могут усиливать существующие социальные проблемы, такие как расизм, сексизм и другие формы дискриминации. Они могут создавать фейки, которые будут выглядеть правдоподобно, и это может привести к серьезным последствиям, включая общественные волнения и потерю доверия к информации. Кроме того, если ИИ будет использоваться для манипуляции общественным мнением, это может угрожать демократическим процессам. Мы уже видим примеры того, как социальные сети и алгоритмы могут влиять на выборы и общественные движения. Поэтому важно, чтобы разработчики и регуляторы работали вместе, чтобы установить четкие правила и стандарты для использования ИИ, иначе мы рискуем оказаться в ситуации, когда технологии будут работать против нас», — сказал собеседник НСН.
По его словам, самих пользователей необходимо обучать критическую мышлению, чтобы люди не принимали все за чистую монету. В борьбе с созданием фейков нейросетями также поможет внедрение механизмов фактчекинга.
«Риск того, что человечество захлебнется в провокациях и фейках, вполне реальный. Социальная поляризация — это одна из самых серьезных проблем. Когда люди начинают верить в разные версии реальности, это создает разделение в обществе. Доверие к информации падает, и люди начинают сомневаться даже в очевидных фактах. Это может привести к конфликтам, как на уровне отдельных групп, так и на уровне стран. Поэтому крайне важно развивать критическое мышление у пользователей. Люди должны уметь анализировать информацию, задавать вопросы и не принимать все на веру. Образование в этой области должно стать приоритетом. Кроме того, внедрение механизмов проверки фактов — это необходимость. Это могут быть как автоматизированные системы, так и работающие в ручном режиме организации, которые занимаются фактчекингом. В конечном итоге, без активных мер по борьбе с дезинформацией мы рискуем оказаться в мире, где правда и ложь смешиваются до неузнаваемости», — заключил эксперт.
Ранее руководитель проекта по интеграции нейросетей в TenChat Александр Жадан заявил НСН, что нейросети часто выдают недостоверную информацию, поэтому главная задача сейчас отрегулировать алгоритм так, чтобы нейросети смогли перепроверять сами себя.