Гид по технологиям

Как проверить, используют ли ваши фото для распознавания лиц

8 min read Приватность Обновлено 15 Dec 2025
Проверить, используют ли ваши фото для распознавания лиц
Проверить, используют ли ваши фото для распознавания лиц

avoid-facial-recognition

Распознавание лиц перестало быть фантастикой и превратилось в повседневную технологию: вход в смартфон, контроль на границе, аналитика в магазинах. Для разработки и тестирования таких систем нужны изображения лиц, и многие исследователи и компании берут их из общедоступных источников — в том числе из фотосервисов вроде Flickr.

В этой статье разберём, почему ваши фотографии могут оказаться в тренировочных или тестовых датасетах по распознаванию лиц, как быстро проверить это с помощью exposing.ai, какие у вас есть практические и юридические опции, а также приведём чек-листы и методику для разных ролей (пользователь, фотограф, администратор).

Почему мои фотографии могут использоваться для распознавания лиц

Чтобы построить рабочую модель распознавания лиц, нужно огромное количество примеров разных лиц. Разработчики ищут коллекции изображений в открытом доступе: фото блогеров, туристов, участников событий и т. п. Flickr — как популярный сайт для обмена фотографиями — стал естественной целью для сбора данных.

В 2019 году сообщалось, что некоторые крупные компании использовали фотографии с Flickr для формирования датасетов, включая YFCC100M (YFCC — Yahoo Flickr Creative Commons 100 Million). Цель обычно заявлялась благая: повысить качество модели и снизить биасы. Но люди на фото зачастую не оповещались и не давали согласие на использование своих изображений в задачах распознавания лиц.

Важно понимать термин “датасет” — это собрание изображений и метаданных, используемое для обучения и тестирования алгоритмов. YFCC100M — пример большого открытого датасета, собранного из общедоступных снимков Flickr под разными лицензиями.

Проблемы и риски распознавания лиц

Крупные проблемы технологии связаны с предвзятостью (bias), ошибочными совпадениями и возможным нарушением прав человека. Исследования показывают, что точность распознавания может существенно варьироваться в зависимости от пола, цвета кожи и возраста. В публикации 2020 года, проведённой исследователями Гарварда и другими, отмечалось, что у некоторых групп людей (включая темнокожих женщин) точность была ниже у большинства провайдеров.

Эти технические ограничения в сочетании с практиками правоохранительных органов и массового наблюдения создают серьёзные этические и правовые риски. В результате некоторые компании, включая IBM, заявили о выходе из рынка распознавания лиц и призвали к общественному диалогу о границах использования технологии.

Важно: даже если цель сбора данных — улучшение качества алгоритма и снижение биасов, отсутствие согласия людей на фото остаётся проблемой.

Как проверить, использовались ли ваши фотографии

Сервис exposing.ai специализируется на поиске изображений, взятых из публичных коллекций Flickr и включённых в датасеты для распознавания лиц. Платформа сканирует миллионы фотографий и предоставляет простой интерфейс проверки.

Шаги для проверки:

  1. Перейдите на expose.ai (exposing.ai). На главной странице есть поле поиска сверху.
  2. Введите ваш Flickr username, хэштег или URL конкретной фотографии.
  3. Нажмите “Search” и подождите несколько секунд.
  4. Система покажет, попали ли изображения в один или несколько датасетов, и как они были помечены (например, для тестирования, обучения, оценки).

person looking at phone

Советы по поиску:

  • Используйте точный URL изображения, чтобы снизить количество ложных совпадений.
  • Если у вас частный профиль, убедитесь, что фото раньше были публичными — приватные снимки обычно не попадают в открытые датасеты.
  • Проверяйте не только собственные аккаунты, но и аккаунты, где вас могут отмечать — теги и хэштеги часто используются при сборе изображений.

homepage for exposing.ai

Результат поиска обычно содержит таблицу соответствий и ссылки на запись о датасете, где использовалось изображение.

results for exposing.ai

Что можно сделать, если ваши фото использовались

Короткий ответ: ограниченно. Если ваше лицо уже включено в открытый датасет, полностью удалить его из всех копий часто невозможно. Но есть практические шаги, которые стоит предпринять:

  • Оцените риск. Определите, какие именно фото использовались и для каких целей (тренировка, тестирование, исследование).
  • Проверьте лицензию исходного изображения. Если изображение было опубликовано под лицензией Creative Commons, это даёт право широкого использования без дополнительного согласия автора в рамках условий лицензии.
  • Если вы являетесь автором или владельцем прав, обратитесь к платформе, где размещено изображение (например, Flickr), с запросом о смене лицензии, удалении или переводе в приватный режим. Это не гарантирует удаления из уже собранных датасетов, но предотвращает дальнейшее распространение.
  • Для юрисдикций с законом о защите данных (например, ЕС) рассмотрите подачу запроса к контролёру данных: запрос на доступ, исправление или удаление персональных данных. Практическая применимость зависит от конкретного случая.
  • Документируйте все шаги: скриншоты поиска exposing.ai, даты запросов, ответы платформ и организаций.

Примерная последовательность действий (чек-лист):

  • Шаг 1. Сохраните доказательства попадания фото в датасет (скриншот результатов exposing.ai).
  • Шаг 2. Проверьте лицензию фото на Flickr и права на изображение.
  • Шаг 3. Свяжитесь с автором фото (если это не вы) и хозяином аккаунта.
  • Шаг 4. Отправьте запрос в службу поддержки платформы с просьбой изменить доступность фото.
  • Шаг 5. При необходимости проконсультируйтесь с юристом по защите данных.

Чек-листы по ролям

Пользователь (обычный аккаунт):

  • Проверьте публичные фото на наличие меток и хэштегов.
  • Используйте exposing.ai для аудита.
  • Переведите чувствительные снимки в приватный режим.
  • Прочитайте лицензионные условия перед загрузкой изображений.

Профи-фотограф или правообладатель:

  • Обновите шаблоны релизов (model release) с явными пунктами о возможном использовании в ML/AI.
  • Рассмотрите указание ограничений в метаданных и описаниях.
  • Храните архив оригинальных прав и согласий.

Администратор площадки или куратор датасета:

  • Проводите аудит источников данных и проверяйте лицензии.
  • Документируйте происхождение изображений и consent-метки.
  • Включите процессы обработки запросов на удаление и объясните их прозрачность.

Методика быстрой проверки и реагирования

Мини-методология (5 шагов):

  1. Поиск exposing.ai по username/URL/хэштегу.
  2. Сохранение результатов и метаданных.
  3. Анализ лицензии и условий публикации на исходной платформе.
  4. Обращение к владельцу/платформе с конкретными требованиями.
  5. Оценка необходимости юридического шага в зависимости от региона.

Правовые и конфиденциальные заметки

  • В Европейском союзе GDPR даёт физическим лицам ряд прав в отношении их персональных данных, включая право доступа и право на удаление. Однако применение этих прав к изображениям, которые были опубликованы под открытой лицензией, может быть ограничено.
  • В других юрисдикциях права могут отличаться. Консультация с юристом по защите данных необходима для оценки реальных опций в конкретном случае.
  • Обмен информацией о попадании в датасеты — часть общественного диалога о прозрачности и ответственности при разработке технологий распознавания лиц.

Важно: данная статья не является юридической консультацией.

Риски и способы их снижения

Качественная таблица риска в тексте:

  • Риск: Непреднамеренное включение лица в датасет. Вероятность: средняя. Воздействие: среднее — репутационные и приватности. Смягчение: ограничить публичность фото, обновить лицензии.
  • Риск: Ошибочная идентификация (ложные совпадения). Вероятность: высокая у моделей с плохой валидацией. Воздействие: высокое для неправомерных действий полиции/работодателей. Смягчение: требовать человеческой верификации и прозрачности от поставщиков решений.
  • Риск: Массовое наблюдение и профилирование. Вероятность: зависит от законодательства. Воздействие: высокое. Смягчение: ограничение использования технологии законами и политиками компаний.

1‑строчный глоссарий

  • Датасет — коллекция данных для обучения/тестирования моделей.
  • Creative Commons — набор лицензий, которые разрешают использование контента при соблюдении условий.
  • YFCC100M — крупный набор публичных фотографий, собранных с Flickr.
  • Распознавание лиц — автоматизированный процесс обнаружения и сопоставления лиц на изображениях.

Часто задаваемые вопросы

Могу ли я удалить своё лицо из датасета?

Если снимок уже попал в открытый датасет, удалить все его копии сложно. Но вы можете попытаться закрыть доступ к оригиналу, изменить лицензию, и подать запросы на удаление у кураторов датасета и платформ.

Работает ли exposing.ai с другими сервисами кроме Flickr?

Exposing.ai ориентирован в основном на открытые коллекции, собранные из Flickr. Возможности поиска по другим платформам ограничены.

Что делать, если моё фото опубликовано под Creative Commons?

Creative Commons даёт право на использование в рамках условий выбранной лицензии. Если фото уже в датасете, владельцы датасета могут полагаться на условия лицензии. Тем не менее вы можете изменить политику для будущих публикаций.

Поможет ли обращение к правоохранительным органам?

Обращение к правоохранительным органам полезно при злоупотреблениях или нарушениях законов. Для вопросов приватности чаще эффективнее обращаться к платформе или использовать механизмы защиты данных в вашей стране.

Социальные превью

  • OG заголовок: Как проверить, используют ли ваши фото для распознавания лиц
  • OG описание: Быстрая инструкция по проверке фотографий на попадание в датасеты распознавания лиц и практические шаги по защите приватности.

Короткий анонс (100–200 слов)

Появился удобный инструмент exposing.ai, который ищет фотографии из Flickr, включённые в открытые датасеты для обучения и тестирования систем распознавания лиц. Это позволяет быстро узнать, были ли ваши изображения использованы для разработки алгоритмов распознавания. Если фото уже попало в датасет, полное удаление сложно, но можно предпринять шаги: изменить права доступа к оригиналу, проверить лицензию, обратиться к владельцу или платформе, а при необходимости — проконсультироваться с юристом по защите данных. В статье также есть чек-листы для пользователей, фотографов и администраторов, мини-методика проверки и рекомендации по снижению рисков.

Краткое резюме

  • Проверяйте публичные фото с помощью exposing.ai.
  • Если фото в открытом датасете, удаление может быть невозможным; работайте над предотвращением дальнейшего распространения.
  • Изучите лицензию изображения и используйте механизмы приватности платформы.
  • Вопросы с правовой стороны зависят от вашей юрисдикции — при необходимости привлекайте специалиста.

Важно: ознакомьтесь с политикой платформы и условиями лицензий перед публикацией изображений.

Поделиться: X/Twitter Facebook LinkedIn Telegram
Автор
Редакция

Похожие материалы

Исправление DMA_COMMON_BUFFER_VECTOR_ERROR в Windows
Техподдержка

Исправление DMA_COMMON_BUFFER_VECTOR_ERROR в Windows

Исправить App Access Blocked в Outlook
Техподдержка

Исправить App Access Blocked в Outlook

Как разблокировать Xbox Cloud Gaming
Gaming

Как разблокировать Xbox Cloud Gaming

Перезагрузить ноутбук через клавиатуру в Windows 11
Windows

Перезагрузить ноутбук через клавиатуру в Windows 11

Как скачать темы Microsoft Store на ПК
Windows

Как скачать темы Microsoft Store на ПК

Настройка объёмного звука (5.1) в Windows 10
Аудио

Настройка объёмного звука (5.1) в Windows 10