Последние новости

Нейросети против человечества: Маск и эксперты призвали к мораторию

Обучение нейросетей необходимо приостановить, поскольку это угрожает человечеству, считают более тысячи экспертов в сфере искусственного интеллекта, в числе которых и глава Tesla Илон Маск.

Эксперты в открытом письме на сайте некоммерческой организации Future of Life Institute призвали все лаборатории ИИ немедленно приостановить обучение систем искусственного интеллекта минимум на полгода.

Призыв относится к обучению систем, более мощных, чем, например, GPT-4. Если такая пауза не будет сделана, то правительствам стран необходимо вмешаться и ввести мораторий на такие работы, указали авторы обращения.

Эксперты полагают, что за эти шесть месяцев нужно создать протоколы безопасности. Также авторы отметили, что нужно изменить политическую сферу и создать регулирующие органы, которые занимались бы связанными с ИИ вопросами, и системы государственного контроля.

Письмо подписали Илон Маск, а также основатель Apple Стив Возняк, эксперты в области искусственного интеллекта Стивен Расселл и Иошуа Бенджио.

О том, как новые технологии могут оказаться оружием в руках мошенников, с журналистом vz.ru поделился своим мнением Игорь Ашманов, ИТ-эксперт, президент компаний «Крибрум» и «Ашманов и партнеры».

Игорь Станиславович, в чем заключается особенность нейросетей нового поколения?

Игорь Ашманов: Умная нейросеть – это бредогенератор нового поколения, но очень гладкий и изощренный. С одной стороны, это гигантский прорыв в технологиях генерации текстов и картинок. С другой – искусственный интеллект имеет свойство ухудшать все, до чего он дотрагивается. Он воспитывает в людях так называемую невзыскательность – привычку к низкому качеству.

Например, машинный перевод, а также боты для общения с клиентами банков или мобильных операторов давно упростили работу многим организациям, поскольку им теперь не нужно нанимать огромное количество сотрудников для проделывания такой работы.

Однако тексты, переведенные компьютером, оказываются весьма топорными, а общение с ботом становится проблемой для клиентов. Бот по своей сути занимается лишь тем, что отгоняет клиента и экономит деньги контакт-центра, для чего старается не пропускать человека к живому оператору для решения его проблемы. 

Параллельно с этим высказываются опасения о том, что боты ChatGPT и GPT-4 могут создавать фейки. Так ли это? 

И. А.: Такие нейросети, как ChatGPT и GPT-4, обучаются на гигантских объемах данных и уже выдают читабельные тексты, хорошие картинки, будто их создал реальный человек.

В связи с этим вскоре мы столкнемся с ситуацией, когда через ChatGPT, GPT-4 будут создаваться различные фейки, фальсифицированные документы, видео и фото, которые будет очень непросто отличить от оригинала.

Какие вы видите угрозы с распространением умных нейросетей?

И. А.: Я думаю, государства начнут использовать генеративные сети для пропаганды. Скорее всего, их могут начать применять и при ведении боевых действий, например, для голосового управления дронами. Кроме того, они могут использоваться мошенниками для вымогания денежных средств у обычных людей.

Технологии развились настолько, что мошенники смогут автоматически генерировать готовые тексты для вымогательства личной информации у потенциальной жертвы.

А какого рода информацию они могут генерировать?

И. А.: Они смогут подделать видео, на котором будет показан сгенерированный персонаж, изображающий родственника жертвы в сложной ситуации, говорящий «своим», неотличимым голосом.

Дипфейки также можно использовать для репутационных атак, шантажа. Сама по себе цифровая сфера дает возможность мошенникам работать с десятками, а то и сотнями людей в день. А с помощью генерирующих нейросетей будут производиться дозвоны тысячам потенциальных жертв одновременно, с автоматическим ведением диалога «разводки» и определением того, «ведется» ли жертва. Количество жертв таких преступлений существенно возрастет.

Еще одна опасность нейросетей заключается в том, что злоумышленники могут использовать эти же технологии для подначивания граждан на саботаж или на какие-либо преступные действия во время военных действий. Например, убеждать их поджечь военкомат «коктейлем Молотова», поджечь электрошкаф на железной дороге и так далее.

Как противодействовать таким угрозам?

И. А.: Меры, которые помогут частично защитить граждан от потенциальных злоумышленников, использующих нейросети, должны применяться на государственном уровне. В интернете необходимо обеспечить базовую безопасность, которой на данный момент практически нет.

Можно это делать и на бытовом уровне, руками самих пользователей. Например, доверчивым пожилым родственникам необходимо ограничивать доступ в Сеть, разрешить вход только на проверенные сайты, запретить брать звонки с незнакомых номеров, тем более – иностранных.

Также необходимо ввести законодательную работу с сотовыми операторами, которые не хотят запрещать подмену телефонных номеров при звонках и блокировать номера мошенников. Для этого нужны изменения на законодательном уровне – в том числе введение уголовной ответственности за незаконный оборот персональных данных. Это, кстати, планирует сделать Госдума уже в апреле.

По материалам vz.ru и других СМИ

Подпишитесь на нашу рассылку, чтобы получать последние обновления

Russkoepole