Председатель правительства Михаил Мишустин выступил на пленарном заседании шестого международного цифрового форума «Digital Almaty 2024: “Индустрия Х: цифровая эволюция будущего”» и принял участие в церемонии вручения премий «Digital Almaty Awards».
Разговор зашел об использовании искусственного интеллекта (ИИ) в критически значимых для страны сферах, включая здравоохранение. И здесь, несмотря на доказанную эффективность ИИ-технологий, таится немало опасностей. Во что сказал по этому поводу глава кабмина (публикуем по стенограмме):
— Что касается цифровых решений, продолжаем работу по их внедрению во все сферы, в том числе на основе искусственного интеллекта. Сегодня подробно об этом говорили на выставке. За последние два года средний уровень его использования в отраслях нашей экономики и в государственном управлении вырос в полтора раза, мы это измеряем. Экономический эффект составляет уже чуть выше триллиона рублей, а концу десятилетия превысит 10 трлн, что добавит к валовому внутреннему продукту почти 6%.
И здесь я хочу затронуть этические вопросы. Мышление искусственного интеллекта зависит, конечно, от обучающего набора данных и отражает специфику страны происхождения. Он поглощает ту информацию, которую ему дают люди.
Так, в «мозгах» российского «Гигачата» и западного, в частности, Chat GPT фактически разные картины мира. Разное понимание, что такое «хорошо», а что такое «плохо». И при допуске искусственного интеллекта в критически значимые отрасли – например, в науку, медицину, промышленность – очень важно использовать модели, которые отвечают общечеловеческим, мировым ценностям и, конечно, собственным национальным интересам. Мы это учитываем.
Российские подходы и конкретные технологические и платформенные решения мы готовы передавать партнёрам, делиться ими. При этом, подчеркну, для использования в закрытом контуре. То есть каждая страна должна, просто обязана сохранять суверенитет своих данных. Общими являются только сервисы, ядра платформ. Думаю, очевидно, что такие собственные и надёжные системы просто необходимы.