論文の概要: Your Room is not Private: Gradient Inversion Attack for Deep Q-Learning
- arxiv url: http://arxiv.org/abs/2306.09273v1
- Date: Thu, 15 Jun 2023 16:53:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-16 13:47:20.219445
- Title: Your Room is not Private: Gradient Inversion Attack for Deep Q-Learning
- Title(参考訳): あなたの部屋はプライベートではない:深層q学習のための勾配反転攻撃
- Authors: Miao Li, Wenhao Ding, Ding Zhao
- Abstract要約: プライバシーは、ロボットが実質的な個人情報にアクセスすることによって、具体化されたAIの領域における重要な関心事として浮上する。
本稿では、状態、行動、Q値の再構成に勾配インバージョンを利用するディープQラーニングアルゴリズムに対する攻撃を提案する。
- 参考スコア(独自算出の注目度): 23.783499703157144
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The prominence of embodied Artificial Intelligence (AI), which empowers
robots to navigate, perceive, and engage within virtual environments, has
attracted significant attention, owing to the remarkable advancements in
computer vision and large language models. Privacy emerges as a pivotal concern
within the realm of embodied AI, as the robot access substantial personal
information. However, the issue of privacy leakage in embodied AI tasks,
particularly in relation to decision-making algorithms, has not received
adequate consideration in research. This paper aims to address this gap by
proposing an attack on the Deep Q-Learning algorithm, utilizing gradient
inversion to reconstruct states, actions, and Q-values. The choice of using
gradients for the attack is motivated by the fact that commonly employed
federated learning techniques solely utilize gradients computed based on
private user data to optimize models, without storing or transmitting the data
to public servers. Nevertheless, these gradients contain sufficient information
to potentially expose private data. To validate our approach, we conduct
experiments on the AI2THOR simulator and evaluate our algorithm on active
perception, a prevalent task in embodied AI. The experimental results
convincingly demonstrate the effectiveness of our method in successfully
recovering all information from the data across all 120 room layouts.
- Abstract(参考訳): ロボットが仮想環境をナビゲートし、知覚し、関与することを可能にするエンボディド・人工知能(AI)の普及は、コンピュータビジョンと大規模言語モデルの顕著な進歩により、大きな注目を集めている。
プライバシーは、ロボットが実質的な個人情報にアクセスするため、具体化されたaiの領域における重要な懸念として現れます。
しかし、具体的AIタスクにおけるプライバシー漏洩の問題、特に意思決定アルゴリズムに関する問題は、研究において十分に考慮されていない。
本稿では,状態,動作,q値の再構成に勾配インバージョンを用いて,ディープq学習アルゴリズムへの攻撃を提案することで,このギャップに対処することを目的とする。
攻撃に勾配を使用するという選択は、一般的に使われているフェデレート学習技術が、プライベートユーザデータに基づいて計算された勾配を、データを公開サーバに保存したり送信したりすることなく、モデル最適化に利用するという事実によって動機づけられる。
それでも、これらの勾配は、潜在的にプライベートデータを公開するための十分な情報を含んでいる。
我々のアプローチを検証するため、我々はAI2THORシミュレータで実験を行い、我々のアルゴリズムを能動的知覚に基づいて評価する。
実験結果は,全120部屋のレイアウトデータから全情報を適切に復元する手法の有効性を実証するものである。
関連論文リスト
- The Frontier of Data Erasure: Machine Unlearning for Large Language Models [56.26002631481726]
大規模言語モデル(LLM)はAIの進歩の基礎となっている。
LLMは機密情報、偏見情報、著作権情報を記憶し、広めることによってリスクを生じさせる。
機械学習は、これらの懸念を軽減するための最先端のソリューションとして現れます。
論文 参考訳(メタデータ) (2024-03-23T09:26:15Z) - Layer Attack Unlearning: Fast and Accurate Machine Unlearning via Layer
Level Attack and Knowledge Distillation [21.587358050012032]
本稿では,階層攻撃アンラーニング(Layer attack unlearning)と呼ばれる,高速で斬新な機械学習パラダイムを提案する。
そこで本研究では, 試料を効率よく検出する部分PGDアルゴリズムを提案する。
また,教師から意思決定境界を確実に学習するために知識蒸留(KD)も活用する。
論文 参考訳(メタデータ) (2023-12-28T04:38:06Z) - TeD-SPAD: Temporal Distinctiveness for Self-supervised
Privacy-preservation for video Anomaly Detection [59.04634695294402]
人間の監視のないビデオ異常検出(VAD)は複雑なコンピュータビジョンタスクである。
VADのプライバシー漏洩により、モデルは人々の個人情報に関連する不必要なバイアスを拾い上げ、増幅することができる。
本稿では,視覚的プライベート情報を自己管理的に破壊する,プライバシーに配慮したビデオ異常検出フレームワークTeD-SPADを提案する。
論文 参考訳(メタデータ) (2023-08-21T22:42:55Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - An Efficient Industrial Federated Learning Framework for AIoT: A Face
Recognition Application [9.977688793193012]
近年,モノの人工知能(AIoT)が注目されている。
データのプライバシーに関する最近の規制は、機密性の高いローカルデータをデータセンターにアップロードすることを妨げる。
顔認識アプリケーションの観点から,AIoTのための効率的な産業連携学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-21T14:03:20Z) - Detecting Privacy Requirements from User Stories with NLP Transfer
Learning Models [1.6951941479979717]
本稿では,プライバシ関連情報を自動検出することで,アジャイルソフトウェア開発におけるプライバシリスクを低減するアプローチを提案する。
提案手法は自然言語処理(NLP)と言語資源とディープラーニングアルゴリズムを組み合わせて,プライバシの側面をユーザストーリに識別する。
論文 参考訳(メタデータ) (2022-02-02T14:02:13Z) - Informing Autonomous Deception Systems with Cyber Expert Performance
Data [0.0]
本稿では、逆強化学習(IRL)を用いて攻撃行動、攻撃行動の有用性、究極的にはサイバー詐欺が阻止できる決定ポイントの洞察を得る可能性について検討する。
例えば、Tularosaの研究は、攻撃者がよく使う現実世界の技術とツールの実験データを提供し、そこからコアデータを活用して、自律的なサイバー防衛システムに通知する。
論文 参考訳(メタデータ) (2021-08-31T20:28:09Z) - Provably Efficient Causal Reinforcement Learning with Confounded
Observational Data [135.64775986546505]
オフラインで収集されたデータセット(観測データ)を組み込んで、オンライン環境でのサンプル効率を改善する方法について検討する。
提案手法は,観測データを効率よく組み込んだ,分解された楽観的値反復 (DOVI) アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-22T14:49:33Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。