Фильтр конфиденциальности не позволит распознать лица



*

Исследователи из канадского университета в Торонто разработали новый фильтр изображений, который они назвали “фильтр конфиденциальности” - он не позволяет корректно работать системам, распознающим лица. Метод основан на двух системах, созданных искусственным интеллектом: одна выполняет непрерывное распознавание лиц, а вторая предназначена для нарушения успешного функционирования первой.

Каждый раз, когда вы загружаете видеоролик или фото в какой-то социальной сети - чаще всего это Facebook - системы, распознающие лица, получают о вас дополнительную информацию. Эти алгоритмы считывают данные о том, кто вы, каково ваше месторасположение, с кем из людей вы вместе, кого вы знаете, и количество таких сведений растет с угрожающей скоростью - кажется, скоро про нас будет известно вообще все, вплоть на интимных подробностей. Многих пользователей, конечно же, раздражает такое положение вещей. В кадр соцсети могут попасть неверные мужья и ветреные жены, подчиненные, которые числятся на больничном, постят фотографии с курортов. Таких примеров довольно много, и это значит, что существует спрос на конфиденциальность в интернете.

Этот спрос пытаются удовлетворить ученые и разработчики программного обеспечения. Команда из университета Торонто, которую возглавлял профессор Пархам Аараби (Parham Aarabi) создала систему обмана алгоритмов, распознающих личность. Этот инструмент должен помочь в защите конфиденциальности и безопасности данных в социальных сетях. Анонимность, а значит защищенность в интернете становится популярным трендом, по существу проходит большая малозаметная война, в которой одна сторона старается собрать как можно больше информации о человеке, не обязательно для чего-то негативного, а вторая - пытается защитить его и сделать незаметным для первой.

В исследовании использовался метод глубокого обучения, так называемая состязательная тренировка, при которой создаются искусственный интеллект создает два алгоритма, сражающиеся друг с другом. Фактически, был разработан набор из двух нейронных сетей: первая идентифицирует лица на фотографиях, а вторая работает так, чтобы первая н есмогла распознать личности людей. Они постоянно борются и учатся друг у друга, проделывая непрерывную модификацию своих внутренних алгоритмов, идет постоянная гонка вооружений.


*

Результатом их работы стал фильтр, наподобие используемых в приложении Instagram, с помощью которого возможно изменить изображения для защиты людей, попавших на них, от распознования. Их система меняет очень небольшое количество пикселей фотографии, внося почти незаметные отличия. Пример его действия показан на рисунке - как мы можем заметить, визуально портреты почти ничем не отличаются, и друзья в социальных сетях даже ни о чем не догадаются.

Разрушающий конкурента искусственный интеллект “атакует” элементы, которые используют алгоритмы распознавания лиц - например, это уголки глаз, которые являются одними из основных точек поиска соответствия. Небольшое ретуширование разреза будет почти незаметно для людей, но весьма проблематично для программ идентификации. Программа ученых создает целый ряд таких тонких искажений, которые гарантированно обманут систему распознавания лиц.

Команда проверила свой фильтр на широко известном наборе лиц, называемом “300-W” - этот альбом изображений предоставлен любым желающим для проверки своих алгоритмов распознавания лиц и используется программистами и учеными, занимающимися проблемами идентификации. В наборе фотографии более чем шестисот мужчин и женщин широкого спектра этнических групп, условий освещенности и разного фона. В итоге оказалось, что алгоритм конфиденциальности помогает уменьшить в 200 раз долю лиц, обнаруженных системами распознавания - с почти 100 до 0,5 процента.

Ключевым моментом здесь было обучение двух нейронных сетей друг против друга - результатом этой борьбы стало создание более надежной системы обнаружения лиц с одной стороны, и обучение еще более мощного алгоритма для исключения возможности обнаружения лиц.

Дополнительно к невозможности идентификации людей, новая система также разрушает оценку эмоций человека, его принадлежность к расе или национальности и другие характеристики, которые возможно получить автоматически с помощью анализа фотографий.

Команда планирует сделать общедоступным свой фильтр конфиденциальности через приложение или веб-сайт.

Ученые говорят, что десятилетие назад для создания подобной системы нужно было бы подбирать все параметры вручную, а сегодня нейронные сети занимаются самообучением и на выходе мы получаем работающий алгоритм, которому не нужно было ничего кроме большого объема изображений для тренировок. Эти системы имеют огромный потенциал в различных областях, конфиденциальность в интернете - лишь одно из приложений.


*

Text.ru - 100.00%


Comments 8


@marina-nilova как Вам удается так быстро накапливать средства?)))

02.06.2018 11:01
0

Какие? ;-)

02.06.2018 12:16
0

@marina-nilova а вы не видите свой гонорар за статью?)))

02.06.2018 17:04
0

Теперь поняла ;-) Давно пишу, стараюсь ;-)

02.06.2018 19:21
0

Сюда приплывал Моби Дик

02.06.2018 13:10
0

✅🤙 @whalepunk

02.06.2018 21:16
0

@marina-nilova, Поздравляю!
Ваш пост был упомянут в моем хит-параде в следующей категории:

  • Голосов - 8 позицию - 774 Голосов
04.06.2018 06:05
0

05.06.2018 15:35
0