Компании, использующие и создающие искусственный интеллект (ИИ), должны открыто делиться информацией о том, на каких данных обучаются их модели, и как принимаются решения, заявил в эфире НСН сооснователь компании «Промобот» Олег Кивокурцев.
Глава КПРФ Геннадий Зюганов ранее назвал развитие ИИ «угрозой человечеству». Он отметил, что если люди не смогут его отрегулировать, то человечество «утонет в провокациях», что может закончиться «очень плохо». Депутат вспомнил слова американского миллиардера Илона Маска, который сказал, что если в алгоритм искусственного интеллекта не будет вложена правда, то «мы погибнем». Кивокурцев отметил, что в рамках обучения нейросетей должны использоваться четкие этические стандарты и регулирование.
«Вложить правду в ИИ можно несколькими способами, и это не так просто, как может показаться. Во-первых, нужны четкие этические стандарты и регулирование. Без этого разработчики будут действовать по своему усмотрению, что может привести к созданию предвзятых или даже опасных алгоритмов. Регуляторы должны установить правила, которые обязывают компании учитывать этические аспекты при разработке ИИ. Во-вторых, прозрачность алгоритмов и данных — это ключ. Если никто не понимает, как работает ИИ, как можно ожидать, что он будет честным? Компании должны открыто делиться информацией о том, на каких данных обучаются их модели, и как принимаются решения. Это поможет выявить предвзятости и ошибки», — сказал собеседник НСН.
По его словам, для корректного обучения искусственного интеллекта необходимо использовать разнообразные источники с проверенными и достоверными данными.
«В-третьих, важно использовать многообразие источников информации. Если ИИ обучается только на одном типе данных, он будет ограничен и предвзят. Нужно собирать данные из разных источников, чтобы создать более сбалансированную картину. Наконец, обучение ИИ на проверенных и достоверных данных — это основа. Если ИИ будет обучаться на фейках и недостоверной информации, он не сможет выдавать правдивые результаты. Поэтому необходимо тщательно отбирать данные, чтобы они были качественными и надежными. В общем, это комплексный процесс, и без серьезных усилий со стороны разработчиков и регуляторов мы рискуем получить ИИ, который будет только усугублять проблемы, а не решать их», — заключил эксперт.
Ранее руководитель проекта по интеграции нейросетей в TenChat Александр Жадан заявил НСН, что нейросети часто выдают недостоверную информацию, поэтому главная задача сейчас отрегулировать алгоритм так, чтобы нейросети смогли перепроверять сами себя.