Обучение нейросетей необходимо приостановить, поскольку это угрожает человечеству, считают более тысячи экспертов в сфере искусственного интеллекта, в числе которых и глава Tesla Илон Маск.
Эксперты в открытом письме на сайте некоммерческой организации Future of Life Institute призвали все лаборатории ИИ немедленно приостановить обучение систем искусственного интеллекта минимум на полгода.
Призыв относится к обучению систем, более мощных, чем, например, GPT-4. Если такая пауза не будет сделана, то правительствам стран необходимо вмешаться и ввести мораторий на такие работы, указали авторы обращения.
Эксперты полагают, что за эти шесть месяцев нужно создать протоколы безопасности. Также авторы отметили, что нужно изменить политическую сферу и создать регулирующие органы, которые занимались бы связанными с ИИ вопросами, и системы государственного контроля.
Письмо подписали Илон Маск, а также основатель Apple Стив Возняк, эксперты в области искусственного интеллекта Стивен Расселл и Иошуа Бенджио.
О том, как новые технологии могут оказаться оружием в руках мошенников, с журналистом vz.ru поделился своим мнением Игорь Ашманов, ИТ-эксперт, президент компаний «Крибрум» и «Ашманов и партнеры».
Игорь Станиславович, в чем заключается особенность нейросетей нового поколения?
Игорь Ашманов: Умная нейросеть – это бредогенератор нового поколения, но очень гладкий и изощренный. С одной стороны, это гигантский прорыв в технологиях генерации текстов и картинок. С другой – искусственный интеллект имеет свойство ухудшать все, до чего он дотрагивается. Он воспитывает в людях так называемую невзыскательность – привычку к низкому качеству.
Например, машинный перевод, а также боты для общения с клиентами банков или мобильных операторов давно упростили работу многим организациям, поскольку им теперь не нужно нанимать огромное количество сотрудников для проделывания такой работы.
Однако тексты, переведенные компьютером, оказываются весьма топорными, а общение с ботом становится проблемой для клиентов. Бот по своей сути занимается лишь тем, что отгоняет клиента и экономит деньги контакт-центра, для чего старается не пропускать человека к живому оператору для решения его проблемы.
Параллельно с этим высказываются опасения о том, что боты ChatGPT и GPT-4 могут создавать фейки. Так ли это?
И. А.: Такие нейросети, как ChatGPT и GPT-4, обучаются на гигантских объемах данных и уже выдают читабельные тексты, хорошие картинки, будто их создал реальный человек.
В связи с этим вскоре мы столкнемся с ситуацией, когда через ChatGPT, GPT-4 будут создаваться различные фейки, фальсифицированные документы, видео и фото, которые будет очень непросто отличить от оригинала.
Какие вы видите угрозы с распространением умных нейросетей?
И. А.: Я думаю, государства начнут использовать генеративные сети для пропаганды. Скорее всего, их могут начать применять и при ведении боевых действий, например, для голосового управления дронами. Кроме того, они могут использоваться мошенниками для вымогания денежных средств у обычных людей.
Технологии развились настолько, что мошенники смогут автоматически генерировать готовые тексты для вымогательства личной информации у потенциальной жертвы.
А какого рода информацию они могут генерировать?
И. А.: Они смогут подделать видео, на котором будет показан сгенерированный персонаж, изображающий родственника жертвы в сложной ситуации, говорящий «своим», неотличимым голосом.
Дипфейки также можно использовать для репутационных атак, шантажа. Сама по себе цифровая сфера дает возможность мошенникам работать с десятками, а то и сотнями людей в день. А с помощью генерирующих нейросетей будут производиться дозвоны тысячам потенциальных жертв одновременно, с автоматическим ведением диалога «разводки» и определением того, «ведется» ли жертва. Количество жертв таких преступлений существенно возрастет.
Еще одна опасность нейросетей заключается в том, что злоумышленники могут использовать эти же технологии для подначивания граждан на саботаж или на какие-либо преступные действия во время военных действий. Например, убеждать их поджечь военкомат «коктейлем Молотова», поджечь электрошкаф на железной дороге и так далее.
Как противодействовать таким угрозам?
И. А.: Меры, которые помогут частично защитить граждан от потенциальных злоумышленников, использующих нейросети, должны применяться на государственном уровне. В интернете необходимо обеспечить базовую безопасность, которой на данный момент практически нет.
Можно это делать и на бытовом уровне, руками самих пользователей. Например, доверчивым пожилым родственникам необходимо ограничивать доступ в Сеть, разрешить вход только на проверенные сайты, запретить брать звонки с незнакомых номеров, тем более – иностранных.
Также необходимо ввести законодательную работу с сотовыми операторами, которые не хотят запрещать подмену телефонных номеров при звонках и блокировать номера мошенников. Для этого нужны изменения на законодательном уровне – в том числе введение уголовной ответственности за незаконный оборот персональных данных. Это, кстати, планирует сделать Госдума уже в апреле.
По материалам vz.ru и других СМИ