論文の概要: Your Room is not Private: Gradient Inversion Attack on Reinforcement
Learning
- arxiv url: http://arxiv.org/abs/2306.09273v2
- Date: Sun, 17 Sep 2023 23:44:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-19 23:29:11.534394
- Title: Your Room is not Private: Gradient Inversion Attack on Reinforcement
Learning
- Title(参考訳): あなたの部屋はプライベートではない - 強化学習に対する勾配反転攻撃
- Authors: Miao Li, Wenhao Ding, Ding Zhao
- Abstract要約: プライバシーは、ロボットが実質的な個人情報にアクセスすることによって、具体化されたAIの領域における重要な関心事として浮上する。
本稿では, 状態, 行動, 監視信号の再構成に勾配インバージョンを利用する, 値ベースアルゴリズムと勾配ベースアルゴリズムに対する攻撃を提案する。
- 参考スコア(独自算出の注目度): 47.96266341738642
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The prominence of embodied Artificial Intelligence (AI), which empowers
robots to navigate, perceive, and engage within virtual environments, has
attracted significant attention, owing to the remarkable advancements in
computer vision and large language models. Privacy emerges as a pivotal concern
within the realm of embodied AI, as the robot accesses substantial personal
information. However, the issue of privacy leakage in embodied AI tasks,
particularly in relation to reinforcement learning algorithms, has not received
adequate consideration in research. This paper aims to address this gap by
proposing an attack on the value-based algorithm and the gradient-based
algorithm, utilizing gradient inversion to reconstruct states, actions, and
supervision signals. The choice of using gradients for the attack is motivated
by the fact that commonly employed federated learning techniques solely utilize
gradients computed based on private user data to optimize models, without
storing or transmitting the data to public servers. Nevertheless, these
gradients contain sufficient information to potentially expose private data. To
validate our approach, we conduct experiments on the AI2THOR simulator and
evaluate our algorithm on active perception, a prevalent task in embodied AI.
The experimental results demonstrate the effectiveness of our method in
successfully reconstructing all information from the data across 120 room
layouts.
- Abstract(参考訳): ロボットが仮想環境をナビゲートし、知覚し、関与することを可能にするエンボディド・人工知能(AI)の普及は、コンピュータビジョンと大規模言語モデルの顕著な進歩により、大きな注目を集めている。
プライバシーは、ロボットが実質的な個人情報にアクセスすることによって、具体化されたAIの領域における重要な関心事として浮上する。
しかし、具体的AIタスクにおけるプライバシー漏洩の問題、特に強化学習アルゴリズムは、研究において十分に考慮されていない。
本稿では, 状態, 行動, 監視信号の再構成に勾配インバージョンを利用して, 値に基づくアルゴリズムと勾配に基づくアルゴリズムに対する攻撃を提案する。
攻撃に勾配を使用するという選択は、一般的に使われているフェデレート学習技術が、プライベートユーザデータに基づいて計算された勾配を、データを公開サーバに保存したり送信したりすることなく、モデル最適化に利用するという事実によって動機づけられる。
それでも、これらの勾配は、潜在的にプライベートデータを公開するための十分な情報を含んでいる。
我々のアプローチを検証するため、我々はAI2THORシミュレータで実験を行い、我々のアルゴリズムを能動的知覚に基づいて評価する。
実験の結果,120室のレイアウトにまたがるデータから全ての情報を復元する手法の有効性が示された。
関連論文リスト
- Game-Theoretic Machine Unlearning: Mitigating Extra Privacy Leakage [12.737028324709609]
最近の法律では、要求されたデータとその影響を訓練されたモデルから取り除くことが義務付けられている。
本研究では,非学習性能とプライバシ保護の競合関係をシミュレートするゲーム理論マシンアンラーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-11-06T13:47:04Z) - Benchmarking Vision Language Model Unlearning via Fictitious Facial Identity Dataset [94.13848736705575]
我々は、未学習アルゴリズムの有効性を頑健に評価するために設計された新しいVLMアンラーニングベンチマークであるFacial Identity Unlearning Benchmark (FIUBench)を紹介する。
情報ソースとその露出レベルを正確に制御する2段階評価パイプラインを適用した。
FIUBench 内の 4 つのベースライン VLM アンラーニングアルゴリズムの評価により,すべての手法がアンラーニング性能に制限されていることが明らかとなった。
論文 参考訳(メタデータ) (2024-11-05T23:26:10Z) - Adversarial Machine Unlearning [26.809123658470693]
本稿では,機械学習モデルに対する特定のトレーニングデータの影響を取り除くことを目的とした,機械学習の課題に焦点を当てた。
伝統的に、未学習アルゴリズムの開発は、ある種のプライバシー脅威である会員推論攻撃(MIA)と並行して実行される。
未学習アルゴリズムの設計にMIAを統合するゲーム理論フレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-11T20:07:22Z) - Layer Attack Unlearning: Fast and Accurate Machine Unlearning via Layer
Level Attack and Knowledge Distillation [21.587358050012032]
本稿では,階層攻撃アンラーニング(Layer attack unlearning)と呼ばれる,高速で斬新な機械学習パラダイムを提案する。
そこで本研究では, 試料を効率よく検出する部分PGDアルゴリズムを提案する。
また,教師から意思決定境界を確実に学習するために知識蒸留(KD)も活用する。
論文 参考訳(メタデータ) (2023-12-28T04:38:06Z) - TeD-SPAD: Temporal Distinctiveness for Self-supervised
Privacy-preservation for video Anomaly Detection [59.04634695294402]
人間の監視のないビデオ異常検出(VAD)は複雑なコンピュータビジョンタスクである。
VADのプライバシー漏洩により、モデルは人々の個人情報に関連する不必要なバイアスを拾い上げ、増幅することができる。
本稿では,視覚的プライベート情報を自己管理的に破壊する,プライバシーに配慮したビデオ異常検出フレームワークTeD-SPADを提案する。
論文 参考訳(メタデータ) (2023-08-21T22:42:55Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Informing Autonomous Deception Systems with Cyber Expert Performance
Data [0.0]
本稿では、逆強化学習(IRL)を用いて攻撃行動、攻撃行動の有用性、究極的にはサイバー詐欺が阻止できる決定ポイントの洞察を得る可能性について検討する。
例えば、Tularosaの研究は、攻撃者がよく使う現実世界の技術とツールの実験データを提供し、そこからコアデータを活用して、自律的なサイバー防衛システムに通知する。
論文 参考訳(メタデータ) (2021-08-31T20:28:09Z) - Provably Efficient Causal Reinforcement Learning with Confounded
Observational Data [135.64775986546505]
オフラインで収集されたデータセット(観測データ)を組み込んで、オンライン環境でのサンプル効率を改善する方法について検討する。
提案手法は,観測データを効率よく組み込んだ,分解された楽観的値反復 (DOVI) アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-22T14:49:33Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。