Яблосрач между тем не утихает, и можно к нему вернуться еще разок
don_katalan — 13.08.2021 Шон ТаунсендЯблосрач между тем не утихает, и можно к нему вернуться еще разок. Как вы помните, Apple собирается искать CSAM (материалы сексуального насилия над детьми) прямо на устройствах пользователей. Каждый человек имеет право скрыть тот факт, что он стал жертвой преступления (особенно сексуального), и распространение детской порнографии приводит к ревиктимизации жертв насилия. Почему-то при слове "дети" многие сразу забывают о том, что распространение и хранение CP - преступление против прайвеси, а не против личности. За растление полагаются совсем другие статьи.
В Штатах поиском цопе занимается NCMEC (национальный центр по проблемам пропаших детей и детей подвергшихся эксплуатации), это не правительственная организация, с которой сотрудничают в том числе технологические компании. Как любезно мне подсказывает пенетенциарная служба США, в год выносится около полутора тысяч приговоров, связанных с детской порнографией (0.0004% к населению), ~10% - получение цопе, 45% - хранение, остальное - траффикинг. Найти количество настоящих педофилов мне к сожалению не удалось. Фейсбук в своем отчете добавляет, что в трех четвертях случаев речь идет о нормальных отношениях среди подростков, о шутниках, о людях, у которых цопе вызывает отвращение, включая и тех, кто жалуется на цопе. Оставшаяся четверть тоже весьма неоднородна. Тем не менее, каждый случай отправляется в NCMEC независимо от намерений или контекста.
Вернемся к Apple. Несмотря на заявления компании "все что есть в вашем айфоне - остается в вашем айфоне", Apple не считает "чувствительной" информацией: бэкапы, контакты, "find my device", iCloud-диск, сообщения, заметки без паролей, фотографии, голосовые заметки и почту. Под давлением ФБР Apple отказались от сквозного шифрования в iCloud и ослабил механизмы приватности для пользователей в России и Китае. Так же они участвовали в секретной программе АНБ PRISM. Поэтому я пользуюсь паролями вместо биометрии и сразу отключаю iCloud. В iCloud и в Фейсбуке сканирование контента уже работает и уже отправляется в NCMEC, но теперь они перенесли проверку на устройства пользователей, и единственная тому причина - посмотреть, что происходит с того конца, при шифровании "из конца в конец" (E2E). Свое облако они уже сканируют.
Как точно сформулировала Сара Льюис, любое шифрование задумывалось как сквозное, от меня к вам, а не от меня к вам и сотрудникам Apple, NCMEC, ФБР и АНБ. Даже сама возможность слежки заставляет людей менять свое поведение (хорошо изученный chilling effect). Я как-то сел в поезд на маленькой станции посреди Европы с полностью разряженным телефоном и только тогда почувствовал себя по-настоящему спокойно, когда никто не знает где я, кто я, и никому кроме кондуктора до меня нет дела. Оплата наличными. Очень яркое чувство.
Как Apple собирается сканировать пользовательский контент и сохранять иллюзию приватности? NCMEC из своей базы детской порнографии (представляете, что будет если туда заберутся вымогатели из REvil или ГРУ РФ?) генерирует перцептивные хеши. В отличии от криптографических хеш-функций они специально сделаны так, чтобы получались коллизии, когда у двух картинок одинаковый хеш (своего рода "отпечаток картинки") Похожие картинки должны быть похожи. Чтобы пользователь не узнал какой из хешей совпал с его фотоальбомом, база распространяется в виде фильтра Блума. "Программисты любят такие структуры, не зная где их применить, все остальное - ложно-позитивное срабатывание" (с) М. Грин
Полностью протокол сравнения называется ftPSI-AD - нечеткий пороговый алгоритм по секретному поиску пересечения множест с ассоциированными данными. PSI позволяет определить входит ли элемент(ы) в множество, не раскрывая его. Так как перцептивные хеши заведомо дают ложные срабатывания, то одного совпадения недостаточно (нужен порог). А чтобы сервер не узнал, что у вас есть пять совпадений из десяти необходимых, протокол нечеткий. К настоящим срабатываниям добавляются заведомо ложные ("синтетические") срабатывания, чтобы у всех пользователей порог болтался у порога, и нельзя было выявить "полупедофилов". Дальше в ход идут эллиптические кривые, разделение секрета Шамира, и кусок хитрожопой линейной алгебры, который либо выдаст все значения при достижении порога, и можно будет восстановить ключ, которым зашифрованы "ассоциированные данные", либо не выдаст ничего. Кстати, кое-что сервер узнать может. Если на сервере есть десять "ваучеров" и поступает 11-й, но при этом данные по-прежнему не расшифрованы, то как минимум два из 11 совпадений - синтетические (за дальнейшими подробностями к Льюис "A Closer Look at Fuzzy Threshold PSI (ftPSI-AD)".
Как отмечает Кристофер Парсонс ("The Problems and Complications of Apple Monitoring for CSAM in iCloud Photos") о некоторых проблемах не думал никто. Например у жертвы насилия могут быть очень характерные приметы (шрамы, родинки итд) и система вполне может их опознать, если кто-то сделает их обычное фото, после чего и фотографа и потерпевшего ждет увлекательное приключение. При этом систему-то делают как раз для того, чтобы подобную ситуацию предотвратить. Полностью исключить ложные срабатывания тоже нельзя (Льюис "Obfuscated Apples"), а здравый смысл (мотивы и субъективную сторону преступления) законодатели потеряли уже очень давно.
Пока система планируется к запуску только в США. Я думаю, что каждый уважающий себя авторитарный режим захочет присоединится к защите детей и сформирует соответствующие агентства, которые дадут непроверяемые хеши от других вредных материалов - обычной порнографии, карикатур на Пророка, послания из Тибета, призывы к гражданскому неповиновению, запрещенные книги и прочую вредную с точки зрения государств деятельность. Так что прежде чем устраивать очередной крестовый поход против педофилов, неплохо бы вернуться к привычному порядку вещей, в начале кому-то должен быть причинен ущерб, а затем уже общество не щадя живота своего ищет и наказывает преступников. Victimless crime - это нонсенс.
Пост спочатку надрукований тут: https://don-katalan.dreamwidth.org/3135466.html.
|
</> |