Разблокировка высокоточной дифференциально-частной классификации изображений с помощью масштабирования | GPTMain News

Недавняя статья DeepMind об этических и социальных рисках языковых моделей определила утечку конфиденциальной информации о своих обучающих данных из крупных языковых моделей как потенциальный риск, который должны устранить организации, работающие над этими моделями. В другом недавнем документе показано, что аналогичные риски для конфиденциальности могут возникать и в стандартных моделях классификации изображений: отпечаток каждого отдельного тренировочного изображения может быть найден встроенным в параметры модели, и злоумышленники могут использовать такие отпечатки для восстановления обучающих данных из модели.

Технологии повышения конфиденциальности, такие как дифференциальная конфиденциальность (DP), могут быть развернуты во время обучения, чтобы снизить эти риски, но они часто приводят к значительному снижению производительности модели. В этой работе мы добились существенного прогресса в разблокировке высокоточного обучения моделей классификации изображений в условиях дифференциальной конфиденциальности.

Рисунок 1: (слева) Иллюстрация утечки обучающих данных в GPT-2 [credit: Carlini et al. “Extracting Training Data from Large Language Models”, 2021]. (справа) Примеры обучения CIFAR-10, реконструированные из сверточной нейронной сети со 100 000 параметров [credit: Balle et al. “Reconstructing Training Data with Informed Adversaries”, 2022]

Дифференциальная конфиденциальность была предложена в качестве математической основы для отражения требования защиты отдельных записей в ходе статистического анализа данных (включая обучение моделей машинного обучения). Алгоритмы DP защищают людей от любых выводов об особенностях, которые делают их уникальными (включая полную или частичную реконструкцию), вводя тщательно откалиброванный шум во время вычисления желаемой статистики или модели. Использование алгоритмов DP обеспечивает надежные и строгие гарантии конфиденциальности как в теории, так и на практике и стало де-факто золотым стандартом, принятым рядом государственных и частных организаций.

Наиболее популярным алгоритмом DP для глубокого обучения является дифференциально частный стохастический градиентный спуск (DP-SGD), модификация стандартного SGD, полученная путем отсечения градиентов отдельных примеров и добавления достаточного количества шума, чтобы замаскировать вклад любого человека в каждое обновление модели:

Рисунок 2: Иллюстрация того, как DP-SGD обрабатывает градиенты отдельных примеров и добавляет шум для создания обновлений модели с приватизированными градиентами.

К сожалению, предыдущие работы показали, что на практике защита конфиденциальности, обеспечиваемая DP-SGD, часто достигается за счет значительно менее точных моделей, что представляет собой серьезное препятствие для широкого внедрения дифференциальной конфиденциальности в сообществе машинного обучения. Согласно эмпирическим данным из предыдущих работ, эта деградация полезности в DP-SGD становится более серьезной на более крупных моделях нейронных сетей, включая те, которые регулярно используются для достижения наилучшей производительности в сложных тестах классификации изображений.

Наша работа исследует это явление и предлагает ряд простых модификаций как процедуры обучения, так и архитектуры модели, что приводит к значительному повышению точности обучения DP на стандартных эталонных тестах классификации изображений. Самое поразительное наблюдение, сделанное в результате нашего исследования, заключается в том, что DP-SGD можно использовать для эффективного обучения гораздо более глубоких моделей, чем считалось ранее, если обеспечить правильное поведение градиентов модели. Мы считаем, что значительный скачок в производительности, достигнутый в результате нашего исследования, может открыть возможности практического применения моделей классификации изображений, обученных с формальными гарантиями конфиденциальности.

На рисунке ниже представлены два наших основных результата: улучшение CIFAR-10 на ~10 % по сравнению с предыдущей работой при частном обучении без дополнительных данных и первая точность 86,7 % на ImageNet при частной точной настройке модели перед обучался на другом наборе данных, почти сократив отставание от лучших не-частных показателей.

Рисунок 3: (слева) Наши лучшие результаты по обучению моделей WideResNet на CIFAR-10 без дополнительных данных. (справа) Наши лучшие результаты по тонкой настройке моделей NFNet на ImageNet. Модель с наилучшей производительностью была предварительно обучена на внутреннем наборе данных, не связанном с ImageNet.

Эти результаты достигаются при 𝜺=8, стандартном параметре для калибровки силы защиты, обеспечиваемой дифференциальной конфиденциальностью в приложениях машинного обучения. Мы ссылаемся на статью для обсуждения этого параметра, а также дополнительных экспериментальных результатов при других значениях 𝜺, а также на других наборах данных. Вместе с документом мы также открываем исходный код нашей реализации, чтобы другие исследователи могли проверить наши выводы и опираться на них. Мы надеемся, что этот вклад поможет другим, заинтересованным в практическом обучении DP.

Загрузите нашу реализацию JAX на GitHub.

Последние статьи

Related articles

ОСТАВЬТЕ ОТВЕТ

Пожалуйста, введите ваш комментарий!
пожалуйста, введите ваше имя здесь

hentai lou nicehentai.com ahegeo hentai pron v bigztube.mobi kannada school girl sex videos sxsi com pornoko.net indian porn xnxx.com سكس.جماعي pornigh.com سكس لوسي bangali sex in kompoz2.com ganapa kannada movie songs
سكس مع المعلمة matureporni.com سكس كس مفتوح desi clip.com foxporns.info girls sexy pictures хентай манга hentaitale.net hentai zombie girl little sister doujin justhentaiporn.com kasumi tendo hentai افلام جيانا مايكلز gratisfucktube.com foto sex
desi gay porn vedio momyporn.mobi nepali x video مدام شرموطه freetube18x.com ايناس الدغيدي سكس tony tony chopper hentai hentaimangaz.com naruto new hentai manga الكس والزبر pornarabic.net احلى بزاز ميلفاية arabgrid.net فلم\سكس