論文の概要: Learning Robust and Privacy-Preserving Representations via Information Theory
- arxiv url: http://arxiv.org/abs/2412.11066v1
- Date: Sun, 15 Dec 2024 05:51:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-17 13:58:17.461231
- Title: Learning Robust and Privacy-Preserving Representations via Information Theory
- Title(参考訳): 情報理論によるロバストとプライバシ保護表現の学習
- Authors: Binghui Zhang, Sayedeh Leila Noorbakhsh, Yun Dong, Yuan Hong, Binghui Wang,
- Abstract要約: セキュリティとプライバシの攻撃を緩和し、タスクユーティリティも維持する第一歩を踏み出します。
本稿では,表現学習のレンズを用いて目標を達成するための情報理論フレームワークを提案する。
- 参考スコア(独自算出の注目度): 21.83308540799076
- License:
- Abstract: Machine learning models are vulnerable to both security attacks (e.g., adversarial examples) and privacy attacks (e.g., private attribute inference). We take the first step to mitigate both the security and privacy attacks, and maintain task utility as well. Particularly, we propose an information-theoretic framework to achieve the goals through the lens of representation learning, i.e., learning representations that are robust to both adversarial examples and attribute inference adversaries. We also derive novel theoretical results under our framework, e.g., the inherent trade-off between adversarial robustness/utility and attribute privacy, and guaranteed attribute privacy leakage against attribute inference adversaries.
- Abstract(参考訳): 機械学習モデルは、セキュリティ攻撃(例:敵の例)とプライバシ攻撃(例:プライベート属性推論)の両方に対して脆弱である。
セキュリティとプライバシの攻撃を緩和し、タスクユーティリティも維持する第一歩を踏み出します。
特に,表現学習のレンズを用いて目的を達成するための情報理論フレームワークを提案する。
また、我々の枠組みの下では、敵の堅牢性/ユーティリティと属性のプライバシとの間の固有のトレードオフ、属性の推論に対する属性のプライバシリークの保証など、新たな理論的結果も導き出します。
関連論文リスト
- Few-Shot Adversarial Prompt Learning on Vision-Language Models [62.50622628004134]
知覚不能な逆境摂動に対するディープニューラルネットワークの脆弱性は、広く注目を集めている。
それまでの努力は、相手の視覚的特徴をテキストの監督と整合させることで、ゼロショットの敵の堅牢性を達成した。
本稿では、限られたデータで入力シーケンスを適応させることで、対向性を大幅に向上させる、数ショットの対向的プロンプトフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-21T18:28:43Z) - Inf2Guard: An Information-Theoretic Framework for Learning
Privacy-Preserving Representations against Inference Attacks [24.971332760137635]
本稿では,3種類の推論攻撃に対する情報理論的防御フレームワークInf2Guardを提案する。
Inf2Guardには、プライバシ保護とユーティリティ保護の2つの相互情報目的が含まれている。
論文 参考訳(メタデータ) (2024-03-04T15:20:19Z) - Enhancing Robust Representation in Adversarial Training: Alignment and
Exclusion Criteria [61.048842737581865]
対人訓練 (AT) は, 頑健な特徴の学習を省略し, 対人的頑健さの低下を招いた。
非対称な負のコントラストと逆の注意によって、頑健な表現を得るためのATの一般的なフレームワークを提案する。
3つのベンチマークデータセットの実証評価により,ATの堅牢性を大幅に向上し,最先端の性能を実現することができた。
論文 参考訳(メタデータ) (2023-10-05T07:29:29Z) - Class Attribute Inference Attacks: Inferring Sensitive Class Information
by Diffusion-Based Attribute Manipulations [15.957198667607006]
ブラックボックス設定において,個々のクラスに対する機密属性を推測するために,最初のクラス属性推論攻撃(CAIA)を導入する。
顔認識領域における我々の実験は、CAIAが個人の髪の色、性別、人種的外観など、未公表の機密属性を正確に推測できることを示している。
論文 参考訳(メタデータ) (2023-03-16T13:10:58Z) - A Framework for Understanding Model Extraction Attack and Defense [48.421636548746704]
我々は,モデルユーティリティとユーザとのトレードオフと,敵の視点によるプライバシについて検討する。
我々は,このようなトレードオフを定量化し,その理論的特性を分析し,最適な敵攻撃・防衛戦略を理解するための最適化問題を開発する。
論文 参考訳(メタデータ) (2022-06-23T05:24:52Z) - LTU Attacker for Membership Inference [23.266710407178078]
我々は,会員推定攻撃に対する予測モデルを守るという課題に対処する。
ユーティリティとプライバシの両方を、アタッカーと評価器を含む外部装置で評価する。
特定の条件下では、単純な攻撃戦略によって、LTU攻撃者でさえ、プライバシー損失の低い境界を達成できることを証明します。
論文 参考訳(メタデータ) (2022-02-04T18:06:21Z) - Privacy-Preserving Federated Learning on Partitioned Attributes [6.661716208346423]
フェデレーション学習は、ローカルデータやモデルを公開することなく、協調的なトレーニングを促進する。
ローカルモデルをチューニングし、プライバシー保護された中間表現をリリースする逆学習ベースの手順を紹介します。
精度低下を緩和するために,前方後方分割アルゴリズムに基づく防御法を提案する。
論文 参考訳(メタデータ) (2021-04-29T14:49:14Z) - Privacy and Robustness in Federated Learning: Attacks and Defenses [74.62641494122988]
このトピックに関する最初の包括的な調査を実施します。
FLの概念の簡潔な紹介と、1脅威モデル、2堅牢性に対する中毒攻撃と防御、3プライバシーに対する推論攻撃と防御、というユニークな分類学を通じて、私たちはこの重要なトピックのアクセス可能なレビューを提供します。
論文 参考訳(メタデータ) (2020-12-07T12:11:45Z) - Uncertainty-Aware Physically-Guided Proxy Tasks for Unseen Domain Face
Anti-spoofing [128.32381246318954]
Face Anti-Spoofing (FAS)は、偽の顔と偽の顔とを区別しようと試みている。
そこで本研究では,未確認領域のより高度な一般化を実現するために,物理手法を活用することを提案する。
論文 参考訳(メタデータ) (2020-11-28T03:22:26Z) - Stylized Adversarial Defense [105.88250594033053]
逆行訓練は摂動パターンを生成し、モデルを堅牢化するためのトレーニングセットにそれらを含む。
我々は、より強力な敵を作るために、機能空間から追加情報を活用することを提案する。
我々の対人訓練アプローチは、最先端の防御と比べて強い堅牢性を示している。
論文 参考訳(メタデータ) (2020-07-29T08:38:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。