В мире

«Мы на грани идеологической катастрофы». Глава Совета по правам человека требует запрета на использование ИИ студентами из-за западного влияния

Поделиться:
Глава Совета по правам человека при Президенте России Валерий Фадеев выступил с инициативой о запрете студентам использовать искусственный интеллект (ИИ) для написания курсовых, дипломных и рефератов. Он считает, что данная технология, разработанная на Западе, распространяет иную идеологию, чем та, что принята в России. «Объем данных и текстов, с которыми работают нейросети, огромен, но наша доля в этом массиве минимальна. Это и есть основная проблема — подавляющее большинство информации имеет западное происхождение», — пояснил он. Фадеев также отметил, что вместе с коллегами запросил у нейросетей информацию по Крыму, Донбассу и Югославии, но получил только «идеологически окрашенные западные материалы». По данным опроса Ассоциации организаторов студенческих олимпиад, на который ссылается Фадеев, 85% российских студентов применяют нейросети, 43% из них используют их для написания эссе и научных работ. «Я убежден, что мы находимся на краю информационного и идеологического кризиса. Российское общество, на мой взгляд, недооценяет эту угрозу, связанную с внедрением ИИ в образовательный процесс и повседневную жизнь», — добавил он. Глава СПЧ подчеркнул, что преподаватели должны контролировать использование нейросетей среди студентов, хотя признал, что не всегда способны определить текст, созданный ИИ. Ранее Фадеев поднимал вопрос о том, что использование нейросетей противоречит статье 29 Конституции РФ, которая гарантирует свободу мысли и слова и запрещает цензуру. «На самом деле, когда мы обращаемся к нейросетям, мы имеем дело уже с отфильтрованной информацией, и говорить о свободе получения информации в этом контексте было бы неуместно, поскольку практически вся информация имеет западное происхождение», — отметил он. Кроме того, в России был подготовлен законопроект, ограничивающий разработку и использование ИИ-продуктов, представляющих риски для общества и государства. Документ, который обсуждается в Госдуме, предполагает классификацию ИИ-систем по уровню рисков: минимальному, ограниченному, высокому и неприемлемому. Предлагается запретить разработку и использование продуктов с неприемлемым уровнем риска, а системы с высоким уровнем риска должны пройти обязательную госрегистрацию и сертификацию. Также инициатива включает ответственность разработчиков ИИ за причинение ущерба жизни, здоровью или имуществу и обязательное страхование ответственности операторов ИИ-систем с высоким уровнем риска.

Календарь

«    Сентябрь 2025    »
ПнВтСрЧтПтСбВс
1234567
891011121314
15161718192021
22232425262728
2930 
Подпишитесь на нашу рассылку!
Мы не спамим
playfortuna