Новый метод позволяет обходить системы распознавания лиц и выдавать себя за другого

Marat_1162

Стаж на ФС с 2014 г
ЖУРНАЛИСТ
Private Club
Старожил
Migalki Club
Меценат
Регистрация
25/3/16
Сообщения
4.625
Репутация
8.866
Реакции
22.633
RUB
0
Сделок через гаранта
4
Депозит
3 500 рублей
Новая атака отличается от других состязательных атак тем, что только маскирует изображенного на фото человека, а не превращает его в кого-то другого.

image

Специалисты израильской компании Adversa AI, занимающейся разработкой технологий искусственного интеллекта (ИИ), новый метод обмана систем распознавания лиц путем добавления на фотографии так называемого шума.

Этот шум представляет собой крошечные частички данных, которые невозможно увидеть невооруженным глазом, но которых вполне достаточно для того, чтобы заставить систему распознавания лиц поверить, будто на фото изображен другой человек.

В частности, исследователи продемонстрировали, как им удалось заставить систему распознавания лиц PimEyes принять руководителя Adversa AI Алекса Полякова за Илона Маска.
Состязательные атаки (adversarial attacks) совершенствуются с каждым годом, равно как и способы защиты от них. Однако представленная Adversa AI атака под названием «Состязательный осьминог» (Adversarial Octopus) отличается от них по ряду причин.

Во-первых, Adversarial Octopus только маскирует изображенного на фото человека, а не превращает его в кого-то другого. Во-вторых, вместо добавления шума к данным изображения, на котором обучаются модели ИИ (так называемая атака отравления), новый метод предполагает внесение изменений в изображение, которое будет вводиться в систему распознавания лиц, и не требует внутренних знаний о том, как обучалась эта система.

Авторы Adversarial Octopus пока еще не опубликовала научную статью с полным объяснением атаки. Исследователи представят подробности о ней только по завершении процесса ответственного раскрытия уязвимости разработчикам систем распознавания лиц.

 
Сверху Снизу