СМИ

В России предложили установить государственный контроль над нейросетями для защиты данных граждан от зарубежных структур

Поделиться:

В России необходимо внедрить государственное регулирование нейросетей, поскольку они могут передавать информацию «врагам» и «угрожают» суверенитету страны. Такой вывод сделали участники сессии «Измерение социального воздействия искусственного интеллекта (ИИ)» на Восточном экономическом форуме (ВЭФ), сообщают «Осторожно, новости».

Один из выступающих, первый заместитель председателя комиссии Общественной палаты Москвы по развитию гражданского общества Александр Асафов, отметил, что американская компания OpenAI, владелец ChatGPT, «автоматически» передает ФБР все запросы, сделанные на русском языке, включая полные цифровые данные пользователей: кто, что и зачем спрашивает. По его словам, в этом году все руководители компаний, работающих в сфере ИИ — Anthropic, Google и других, «получили звания офицеров Пентагона». «Это новый фронт», — подчеркнул Асафов.

Директор фонда «Региональная политика» Евгений Забродин поддержал мнение представителя Общественной палаты, добавив, что «государство должно быть лучшим другом человека», и ему следует предоставить право контролировать использование нейросетей. Он также подчеркнул, что ИИ создает для пользователей информационный пузырь, который может иметь негативные последствия.

Член Совета при президенте РФ по развитию гражданского общества Элина Сидоренко отметила, что с развитием ИИ формируется «цифровой пролетариат», который вынужден работать на нейросети за низкую зарплату. «Со временем таких людей станет еще больше», — предостерегла Сидоренко. Она также подчеркнула необходимость защиты граждан от цифрового мошенничества. «Россия должна развивать стандарты и определять сферы, где использование ИИ и дипфейков недопустимо — например, в образовательной сфере», — добавила она.

Ранее в России был предложен законопроект, ограничивающий разработку и использование ИИ-продуктов, представляющих риски для общества и государства. Документ, обсуждаемый в Госдуме, предполагает классификацию систем ИИ по уровням рисков: минимальному, ограниченному, высокому и неприемлемому. Предлагается запретить разработку и использование систем, относящихся к категории с неприемлемым уровнем риска.

Системы с высоким уровнем риска должны будут проходить обязательную госрегистрацию и сертификацию. Кроме того, инициатива вводит ответственность для разработчиков ИИ-систем за причинение вреда жизни, здоровью или имуществу, а также обязательное страхование ответственности операторов систем ИИ с высоким уровнем риска.

Календарь

«    Сентябрь 2025    »
ПнВтСрЧтПтСбВс
1234567
891011121314
15161718192021
22232425262728
2930 
Подпишитесь на нашу рассылку!
Мы не спамим
playfortuna