Интересное:
Глава Совета по правам человека при Президенте России Валерий Фадеев выступил с инициативой о запрете студентам использовать искусственный интеллект (ИИ) для написания курсовых, дипломных и рефератов. Он считает, что данная технология, разработанная на Западе, распространяет иную идеологию, чем та, что принята в России. «Объем данных и текстов, с которыми работают нейросети, огромен, но наша доля в этом массиве минимальна. Это и есть основная проблема — подавляющее большинство информации имеет западное происхождение», — пояснил он. Фадеев также отметил, что вместе с коллегами запросил у нейросетей информацию по Крыму, Донбассу и Югославии, но получил только «идеологически окрашенные западные материалы». По данным опроса Ассоциации организаторов студенческих олимпиад, на который ссылается Фадеев, 85% российских студентов применяют нейросети, 43% из них используют их для написания эссе и научных работ. «Я убежден, что мы находимся на краю информационного и идеологического кризиса. Российское общество, на мой взгляд, недооценяет эту угрозу, связанную с внедрением ИИ в образовательный процесс и повседневную жизнь», — добавил он. Глава СПЧ подчеркнул, что преподаватели должны контролировать использование нейросетей среди студентов, хотя признал, что не всегда способны определить текст, созданный ИИ. Ранее Фадеев поднимал вопрос о том, что использование нейросетей противоречит статье 29 Конституции РФ, которая гарантирует свободу мысли и слова и запрещает цензуру. «На самом деле, когда мы обращаемся к нейросетям, мы имеем дело уже с отфильтрованной информацией, и говорить о свободе получения информации в этом контексте было бы неуместно, поскольку практически вся информация имеет западное происхождение», — отметил он. Кроме того, в России был подготовлен законопроект, ограничивающий разработку и использование ИИ-продуктов, представляющих риски для общества и государства. Документ, который обсуждается в Госдуме, предполагает классификацию ИИ-систем по уровню рисков: минимальному, ограниченному, высокому и неприемлемому. Предлагается запретить разработку и использование продуктов с неприемлемым уровнем риска, а системы с высоким уровнем риска должны пройти обязательную госрегистрацию и сертификацию. Также инициатива включает ответственность разработчиков ИИ за причинение ущерба жизни, здоровью или имуществу и обязательное страхование ответственности операторов ИИ-систем с высоким уровнем риска.
Читать еще
Категории
Подпишитесь на нашу рассылку!
Случайное

«Арсеналу» придётся отказаться от
7-11-2024, 20:51

Переговоры США и РФ 25 февраля в
23-02-2025, 12:02

Ситуация критическая: нехватка бензина
16-09-2025, 15:22

Трамп угрожает России новыми санкциями,
11-04-2025, 09:47

Срывают планы РФ: в АТЕШ раскрыли
2-01-2025, 21:07
