Исследователи сумели вызвать конфликт во встроенной в iOS хеш-функции, на которую опирается система обнаружения изображений, содержащих сцены жестокого обращения с детьми. Проблема затрагивает систему хеширования NeuralHash, которая позволяет Apple точно определять незаконные изображения, не собирая какую-либо информацию о не подпадающих под её критерии картинках.
Во вторник пользователь GitHub по имени Асухариет Игвар (Asuhariet Ygvar) опубликовал код реконструированной версии NeuralHash для Python. Исследователь успел отследить некоторые принципы работы системы. Например, она допускает изменение размера и сжатие изображения, но не обрезку или поворот. Как только код стал общедоступным, были обнаружены серьёзные изъяны. Один из пользователей смог создать конфликт в алгоритме благодаря использованию двух изображений, которые генерируют один и тот же хэш. Если результаты этого эксперимента подтвердятся, это можно будет считать серьёзной проблемой на первый взгляд надёжной системы Apple.
Напомним, в начале августа Apple представила систему обнаружения изображений, содержащих сцены жестокого обращения с детьми. Система содержит множество мер защиты конфиденциальности пользователей. Она ограничивает сканирование снимками, загружаемыми в iCloud и генерирует уведомление только после 30 найденных совпадений. Тем не менее, защитники конфиденциальности по-прежнему обеспокоены возможными последствиями сканирования пользовательских хранилищ для обнаружения незаконных материалов. Новое открытие усилило опасения по поводу того, как ещё можно использовать новую систему.
Стоит отметить, что найденную уязвимость очень сложно использовать в реальных условиях. Для этого необходимо создать не менее 30 незаконных изображений, определяемых системой, а затем незаметно передать их на смартфон жертвы. Даже в случае успеха будет сгенерировано лишь сообщение для Apple, которая легко идентифицирует ложное срабатывание. Тем не менее, найденная уязвимость, скорее всего, усилит критику новой системы обнаружения незаконного контента. Во вторник Electronic Frontier Foundation опубликовала петицию, в которой призвала Apple отказаться от её внедрения. Петиция уже собрала около двух тысяч подписей.