論文の概要: Your Room is not Private: Gradient Inversion Attack on Reinforcement
Learning
- arxiv url: http://arxiv.org/abs/2306.09273v2
- Date: Sun, 17 Sep 2023 23:44:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-19 23:29:11.534394
- Title: Your Room is not Private: Gradient Inversion Attack on Reinforcement
Learning
- Title(参考訳): あなたの部屋はプライベートではない - 強化学習に対する勾配反転攻撃
- Authors: Miao Li, Wenhao Ding, Ding Zhao
- Abstract要約: プライバシーは、ロボットが実質的な個人情報にアクセスすることによって、具体化されたAIの領域における重要な関心事として浮上する。
本稿では, 状態, 行動, 監視信号の再構成に勾配インバージョンを利用する, 値ベースアルゴリズムと勾配ベースアルゴリズムに対する攻撃を提案する。
- 参考スコア(独自算出の注目度): 47.96266341738642
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The prominence of embodied Artificial Intelligence (AI), which empowers
robots to navigate, perceive, and engage within virtual environments, has
attracted significant attention, owing to the remarkable advancements in
computer vision and large language models. Privacy emerges as a pivotal concern
within the realm of embodied AI, as the robot accesses substantial personal
information. However, the issue of privacy leakage in embodied AI tasks,
particularly in relation to reinforcement learning algorithms, has not received
adequate consideration in research. This paper aims to address this gap by
proposing an attack on the value-based algorithm and the gradient-based
algorithm, utilizing gradient inversion to reconstruct states, actions, and
supervision signals. The choice of using gradients for the attack is motivated
by the fact that commonly employed federated learning techniques solely utilize
gradients computed based on private user data to optimize models, without
storing or transmitting the data to public servers. Nevertheless, these
gradients contain sufficient information to potentially expose private data. To
validate our approach, we conduct experiments on the AI2THOR simulator and
evaluate our algorithm on active perception, a prevalent task in embodied AI.
The experimental results demonstrate the effectiveness of our method in
successfully reconstructing all information from the data across 120 room
layouts.
- Abstract(参考訳): ロボットが仮想環境をナビゲートし、知覚し、関与することを可能にするエンボディド・人工知能(AI)の普及は、コンピュータビジョンと大規模言語モデルの顕著な進歩により、大きな注目を集めている。
プライバシーは、ロボットが実質的な個人情報にアクセスすることによって、具体化されたAIの領域における重要な関心事として浮上する。
しかし、具体的AIタスクにおけるプライバシー漏洩の問題、特に強化学習アルゴリズムは、研究において十分に考慮されていない。
本稿では, 状態, 行動, 監視信号の再構成に勾配インバージョンを利用して, 値に基づくアルゴリズムと勾配に基づくアルゴリズムに対する攻撃を提案する。
攻撃に勾配を使用するという選択は、一般的に使われているフェデレート学習技術が、プライベートユーザデータに基づいて計算された勾配を、データを公開サーバに保存したり送信したりすることなく、モデル最適化に利用するという事実によって動機づけられる。
それでも、これらの勾配は、潜在的にプライベートデータを公開するための十分な情報を含んでいる。
我々のアプローチを検証するため、我々はAI2THORシミュレータで実験を行い、我々のアルゴリズムを能動的知覚に基づいて評価する。
実験の結果,120室のレイアウトにまたがるデータから全ての情報を復元する手法の有効性が示された。
関連論文リスト
- Layer Attack Unlearning: Fast and Accurate Machine Unlearning via Layer
Level Attack and Knowledge Distillation [21.587358050012032]
本稿では,階層攻撃アンラーニング(Layer attack unlearning)と呼ばれる,高速で斬新な機械学習パラダイムを提案する。
そこで本研究では, 試料を効率よく検出する部分PGDアルゴリズムを提案する。
また,教師から意思決定境界を確実に学習するために知識蒸留(KD)も活用する。
論文 参考訳(メタデータ) (2023-12-28T04:38:06Z) - On Responsible Machine Learning Datasets with Fairness, Privacy, and
Regulatory Norms [58.93352076927003]
AI技術の信頼性に関する深刻な懸念があった。
機械学習とディープラーニングのアルゴリズムは、開発に使用されるデータに大きく依存する。
本稿では,責任あるルーブリックを用いてデータセットを評価するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-24T14:01:53Z) - TeD-SPAD: Temporal Distinctiveness for Self-supervised
Privacy-preservation for video Anomaly Detection [59.04634695294402]
人間の監視のないビデオ異常検出(VAD)は複雑なコンピュータビジョンタスクである。
VADのプライバシー漏洩により、モデルは人々の個人情報に関連する不必要なバイアスを拾い上げ、増幅することができる。
本稿では,視覚的プライベート情報を自己管理的に破壊する,プライバシーに配慮したビデオ異常検出フレームワークTeD-SPADを提案する。
論文 参考訳(メタデータ) (2023-08-21T22:42:55Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - An Efficient Industrial Federated Learning Framework for AIoT: A Face
Recognition Application [9.977688793193012]
近年,モノの人工知能(AIoT)が注目されている。
データのプライバシーに関する最近の規制は、機密性の高いローカルデータをデータセンターにアップロードすることを妨げる。
顔認識アプリケーションの観点から,AIoTのための効率的な産業連携学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-21T14:03:20Z) - Detecting Privacy Requirements from User Stories with NLP Transfer
Learning Models [1.6951941479979717]
本稿では,プライバシ関連情報を自動検出することで,アジャイルソフトウェア開発におけるプライバシリスクを低減するアプローチを提案する。
提案手法は自然言語処理(NLP)と言語資源とディープラーニングアルゴリズムを組み合わせて,プライバシの側面をユーザストーリに識別する。
論文 参考訳(メタデータ) (2022-02-02T14:02:13Z) - Informing Autonomous Deception Systems with Cyber Expert Performance
Data [0.0]
本稿では、逆強化学習(IRL)を用いて攻撃行動、攻撃行動の有用性、究極的にはサイバー詐欺が阻止できる決定ポイントの洞察を得る可能性について検討する。
例えば、Tularosaの研究は、攻撃者がよく使う現実世界の技術とツールの実験データを提供し、そこからコアデータを活用して、自律的なサイバー防衛システムに通知する。
論文 参考訳(メタデータ) (2021-08-31T20:28:09Z) - Provably Efficient Causal Reinforcement Learning with Confounded
Observational Data [135.64775986546505]
オフラインで収集されたデータセット(観測データ)を組み込んで、オンライン環境でのサンプル効率を改善する方法について検討する。
提案手法は,観測データを効率よく組み込んだ,分解された楽観的値反復 (DOVI) アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-22T14:49:33Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。