Все мы активно выставляем свои фотографии. В соцсетях, мессенджерах и просто на сайтах. Нам кажется это таким обычным… Только надо думать о защите конфиденциальности своих персональных данных. Сегодня разбираем, как сделать так, чтобы по вашим публичным фото, искусственный интеллект вас не опознал.
Личная конфиденциальность — все!
Если вы не заботитесь о защите своей конфиденциальности, то у меня для вас плохие новости. Любой человек всего через одну фотографию может вычислить про вас все. Например, найти страницу в ВК по 1 фото — всего 2 клика. Ну а дальше думайте сами, что и как про вас могут думать, если увидят в «не таких местах» или «в неправильном окружении». Таких неприятных историй я скопил уже на приличную книгу.
Если вы публичное лицо, то ценность сохранения личных данных кратно увеличивается. Потому что никто не может быть уверен на 100%, кто, как и для чего может использовать полученную подобным образов информацию о вас.
Сегодня технологии машинного обучения на базе искусственного интеллекта, создающие модели распознавания лиц по фото из различных публичных источников, позволяют собрать про вас нехилое такое досье. Поэтому, чтобы не ломать голову над тем, не используют ли ваши фотографии для создания цифровых аватаров с использованием технологии дипфейк, в пору подумать, как защитить себя от вмешательства неавторизованных третьих лиц, стремящихся узнать про вас все, куда бы вы ни пошли.
неДоброе машинное обучение
2020-ый год стал переломным для систем машинного обучения. Модели и алгоритмы глубокого обучения стали легкодоступны для большинства пользователей интернета, а такие новые методы, как трансферное обучение, позволили получать мощные модели глубокого обучения, используя при этом меньшие наборы данных. Чтобы знать про вас все, иногда достаточно всего одного фото… Одно фото, Карл!
В статье Кашмира Хилла в New York Times рассказывается о некой нерегулируемой службе распознавания лиц clearview.ai, которая загрузила более 3 миллиарда фотографий людей из интернета и социальных сетей и использовала их для создания моделей распознавания лиц для миллионов граждан без их ведома или разрешение. Проекты типа Clearview.ai наглядно демонстрируют, насколько легко в настоящее время создавать инвазивные инструменты для мониторинга и отслеживания персональных данных о людях с использованием методов глубокого обучения.
В попытки таких IT-монстров, как Microsoft, со своим Azure Face API, Amazon Rekognition или Face++, активно работающих над созданием специализированных платформ распознавания лиц, и пытающихся всех убедить, что они не предназначены для несанкционированного распознавания лиц из общедоступных фото, верится с трудом, вот честно. Попробуйте найти хоть какую-нибудь информацию от разработчика и хоть что-то в ней понять. Все покрыто такой завесой недосказанности, чтобы ни один пользователь не разобрался, что к чему…
Государственное регулирование может и будет способствовать ограничению использования машинного обучения публичными компаниями, но окажет совершенно незначительное влияние (читай — никакое) на частные организации, отдельных лиц или другие государства с аналогичными целями. Поэтому, в данном контексте фраза «защита утопающих — дело рук самих утопающих» подходит как нельзя кстати. Что же можно сделать?
Защити свою личную конфиденциальность самостоятельно
SAND Lab из Чикагского университета разработала специальный алгоритм, на основании которого создала программу Fawkes, которая позволяет людям ограничить возможности их отслеживания неизвестными третьими лицами, использующими модели распознавания лиц из общедоступных фотографий.
Fawkes работает следующим образом. Программа вносит в ваши фотографии крошечные изменения на уровне пикселей, невидимые для человеческого глаза, но буквально «отравляющие» алгоритмы распознавания лиц, делая абсолютно невозможным, чтобы искусственный интеллект вас узнал.
При этом человеческому глазу такие изменения совершенно незаметны. Вот пара примеров замаскированных изображений и их оригиналов. Попробуйте узнать, какая из фотографий оригинал? Кажется, что разницы нет, но она — есть!
В компании называют этот процесс маскировкой изображения. Вы можете использовать эти «замаскированные» фотографии как обычно — делиться ими с друзьями в социальных сетях, отправлять в медиа, а также распечатывать на любых цифровых устройствах как совершенно обычные фотографии.
Fawkes доказал свою эффективность в различных средах опознавания лиц и на 100% эффективен против алгоритмов тех же Microsoft Azure или Amazon Rekognition. А если цифровые гиганты попытаются внести какие либо изменения в свое ПО, чтобы снизить эффективность работы Fawkes, то в Sand Lab регулярно выпускают обновления, чтобы не позволить несанкционированно использовать ваши фото.
Программа Fawkes работает на Windows, MacOS и Linux и распространяется абсолютно бесплатно. Так что, пользуйтесь.