Posted 30 мая 2023, 14:39
Published 30 мая 2023, 14:39
Modified 30 мая 2023, 14:41
Updated 30 мая 2023, 14:41
Депутат Госдумы Антон Немкин предложили маркировать контент, созданный нейросетью. По словам парламентария, это необходимо для того, чтобы зрители имели представление какого рода информация перед ними и в целом анализировали ее более тщательно. Немкин считает, что это поможет в будущем избежать, или, по крайней мере, сократить распространение недостоверных данных.
— Никто не гарантирует, что изображение человека, или видео, сгенерированное с помощью изображения человека, не будет использоваться для совершения противоправных действий, или иного неприемлемого поведения в сети, например, кибербулинга, — объяснил Антон Немкин.
Сама маркировка, считает депутат, должна быть ненавязчивой, но, в то же время, понятной для пользователей сети. О введении возможной ответственности за отсутствие маркировки пока не было ничего сказано, однако можно смело предположить, что она все-таки будет.
Многие эксперты, непосредственно связанные с работой с нейросетями, согласны с необходимостью маркировки подобного контента. Похожие вопросы уже неоднократно поднимались и обсуждались на тематических заседаниях и конференциях, а европейские законодатели ведут работу по созданию инструментов регулирования использования ИИ.
Один из экспертов по работе с нейросетями в беседе с корреспондентом «НовостиВолгограда.ру» подтвердил необходимость введения обязательной маркировки созданного ИИ контента. Эксперт считает, что без подобных обозначающих маркеров ситуация с распространяющимися дипфейками может выйти за границы допустимого.
— Маркировка — это хорошо. Если уже сейчас в сети широко разошлись фейки с Папой Римским и взрывом у Белого дома, то дальше такого будет в разы больше. Но все же есть вопрос: как маркировать? Если у каждого государства будет свой маркер, то можно считать, что не будет никакого, и ИИ инструменты будут жить как жили, просто в серой зоне, что затормозит их развитие, — отметил Константин Тетерук, специалист по работе с нейросетями.
Эксперт подчеркнул, что в этом вопросе главное не переусердствовать в законотворчестве и не допустить излишнего давления на сферу. В противном случае, считает спикер, это сильно затормозит развитие искусственного интеллекта. Заняться вопросом регулирования контента должен будет Роскомнадзор (РКН).
— Нужно дополнять законы в отношении официальных юрлиц. Будет логично, если РКН обяжет юрлица помечать сгенерированный контент, как сейчас это делают с рекламой. С картинками это просто, а вот с текстами сложнее. Тут нужно работать с создателями текстовых моделей, чтобы они добавляли в код текста пометку о генерации. Если отечественные компании еще согласятся, то тот же OpenAI РКН слушать не будет. Так что проблема сложная. Возможно, правительства «недружественных стран» передадут нам какой-то инструмент для распознавания, а может и нет, — рассказал эксперт.
Отметим, что аналогичного мнения придерживаются и сами нейросети. Например, известный широкой общественности Chat-GPT привел те же аргументы, что и эксперты, в поддержку идеи маркировки контента.
— Как ИИ, я не могу иметь мнения, но могу сказать, что маркировка контента, созданного нейросетью, может быть полезной для того, чтобы пользователи понимали, что они читают или смотрят. Это также может помочь в борьбе с фейковыми новостями и манипуляциями, которые могут быть созданы с помощью ИИ. Однако, необходимо учитывать, что такая маркировка может быть сложной в реализации и требовать дополнительных ресурсов, — высказала свое мнение нейросеть Chat-GPT на запрос редакции «НовостиВолгограда.ру».
Ранее «НовостиВолгограда.ру» сообщали, что Италия стала первой страной, запретившей использование нейросетей. Под запрет попал уже нашумевший Chat-GPT: по мнению итальянского управления по защите персональных данных, нейросеть нарушает законодательство о личной информации.