論文の概要: FedVLN: Privacy-preserving Federated Vision-and-Language Navigation
- arxiv url: http://arxiv.org/abs/2203.14936v1
- Date: Mon, 28 Mar 2022 17:43:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-29 12:19:18.964387
- Title: FedVLN: Privacy-preserving Federated Vision-and-Language Navigation
- Title(参考訳): fedvln: プライバシー保護型視覚言語ナビゲーション
- Authors: Kaiwen Zhou and Xin Eric Wang
- Abstract要約: VLN(Vision-and-Language Navigation)タスクのためのプライバシー保護型エージェント学習を導入する。
私たちは、各住宅環境をローカルクライアントとみなし、クラウドサーバや他のクライアントとローカルアップデート以外の何も共有していません。
本稿では,各クライアントのデータをそのローカルモデルトレーニングに限定する分散トレーニング戦略と,未確認環境に対するモデル一般化性を改善するためのフェデレーション事前探索手法を提案する。
- 参考スコア(独自算出の注目度): 13.490583662839729
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data privacy is a central problem for embodied agents that can perceive the
environment, communicate with humans, and act in the real world. While helping
humans complete tasks, the agent may observe and process sensitive information
of users, such as house environments, human activities, etc. In this work, we
introduce privacy-preserving embodied agent learning for the task of
Vision-and-Language Navigation (VLN), where an embodied agent navigates house
environments by following natural language instructions. We view each house
environment as a local client, which shares nothing other than local updates
with the cloud server and other clients, and propose a novel federated
vision-and-language navigation (FedVLN) framework to protect data privacy
during both training and pre-exploration. Particularly, we propose a
decentralized training strategy to limit the data of each client to its local
model training and a federated pre-exploration method to do partial model
aggregation to improve model generalizability to unseen environments. Extensive
results on R2R and RxR datasets show that under our FedVLN framework,
decentralized VLN models achieve comparable results with centralized training
while protecting seen environment privacy, and federated pre-exploration
significantly outperforms centralized pre-exploration while preserving unseen
environment privacy.
- Abstract(参考訳): データプライバシは、環境を認識し、人間と通信し、現実世界で行動できるエンボディエージェントにとって、中心的な問題である。
作業の完了を支援する一方で、エージェントは、住宅環境や人間の活動など、ユーザの機密情報を観察し、処理することができる。
本研究は,自然言語による指示に従うことで家庭環境をナビゲートする視覚言語ナビゲーション (vln) タスクに対して,プライバシ保存型実施エージェント学習を提案する。
我々は,各家庭の環境をローカルクライアントとみなし,クラウドサーバや他のクライアントとのローカルアップデート以外に何も共有しない。また,トレーニングと事前探索の両方においてデータのプライバシーを保護するための,新しい統合視覚言語ナビゲーション(FedVLN)フレームワークを提案する。
特に、各クライアントのデータをそのローカルモデルトレーニングに限定する分散トレーニング戦略と、未認識環境に対するモデルの一般化性を改善するために部分モデル集約を行うフェデレーション前展開法を提案する。
r2rとrxrデータセットの広範な結果は、当社のfedvlnフレームワーク下では、分散vlnモデルが集中トレーニングと同等の結果を達成して、見られている環境プライバシを保護しています。
関連論文リスト
- Personalized Federated Learning for Cross-view Geo-localization [49.40531019551957]
本稿では,フェデレート・ラーニング (FL) とクロスビュー・イメージ・ジオローカライゼーション (CVGL) 技術を組み合わせた方法論を提案する。
提案手法では, クライアントが粗い特徴抽出器のみを共有しながら, 局所環境に特有のきめ細かな特徴を保持する, 粗い特徴抽出器を実装している。
その結果,フェデレートCVGL法は,データプライバシを維持しつつ,集中的なトレーニングに近い性能を実現することができた。
論文 参考訳(メタデータ) (2024-11-07T13:25:52Z) - Privacy-Engineered Value Decomposition Networks for Cooperative
Multi-Agent Reinforcement Learning [19.504842607744457]
協力的マルチエージェント強化学習では、エージェントのチームは、指定されたタスクを学ぶために、チームの長期的な報酬を共同で最適化する必要がある。
プライバシエンジニアリングされた価値分解ネットワーク(PE-VDN)は、エージェントの環境相互作用データの機密性を保護しながら、マルチエージェント調整をモデル化する。
我々は,StarCraft Multi-Agent Competition (SMAC) にPE-VDNを実装し,バニラVDNの勝利率の80%を達成することを示す。
論文 参考訳(メタデータ) (2023-09-13T02:50:57Z) - Federated Nearest Neighbor Machine Translation [66.8765098651988]
本稿では,FedNN(FedNN)機械翻訳フレームワークを提案する。
FedNNは1ラウンドの記憶に基づくインタラクションを活用して、異なるクライアント間で知識を共有する。
実験の結果,FedAvgと比較して,FedNNは計算コストと通信コストを著しく削減することがわかった。
論文 参考訳(メタデータ) (2023-02-23T18:04:07Z) - Navigation as Attackers Wish? Towards Building Robust Embodied Agents under Federated Learning [38.6283377809448]
フェデレートされたエージェント学習は、トレーニング中に各クライアント(個々の環境)にデータをローカルに保持することで、個々の視覚環境のデータプライバシを保護する。
ローカルデータは、フェデレートされた学習下でサーバにアクセスできないため、攻撃者は、ローカルクライアントのトレーニングデータに簡単に毒を塗ってエージェント内にバックドアを構築することができる。
視覚・言語ナビゲーション(VLN)の課題に対する攻撃と防御について検討する。
論文 参考訳(メタデータ) (2022-11-27T09:01:31Z) - A New Implementation of Federated Learning for Privacy and Security
Enhancement [27.612480082254486]
フェデレーテッド・ラーニング(FL)は、新しい機械学習・セッティングとして登場した。
ローカルデータを共有する必要はなく、プライバシを十分に保護することができる。
本稿では,ビザンチン攻撃に対するモデル更新に基づくフェデレーション平均化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-08-03T03:13:19Z) - Personalization Improves Privacy-Accuracy Tradeoffs in Federated
Optimization [57.98426940386627]
局所的な学習とプライベートな集中学習の協調は、総合的に有用であり、精度とプライバシのトレードオフを改善していることを示す。
合成および実世界のデータセットに関する実験により理論的結果について述べる。
論文 参考訳(メタデータ) (2022-02-10T20:44:44Z) - Airbert: In-domain Pretraining for Vision-and-Language Navigation [91.03849833486974]
ビジョン・アンド・ランゲージナビゲーション(VLN)は、エンボディエージェントが自然言語命令を使って現実的な環境をナビゲートできるようにすることを目的としている。
近年の方法は、VLN剤の一般化を改善するための事前学習である。
大規模かつ多様なドメイン内VLNデータセットであるBnBを紹介する。
論文 参考訳(メタデータ) (2021-08-20T10:58:09Z) - Learning Connectivity for Data Distribution in Robot Teams [96.39864514115136]
グラフニューラルネットワーク(GNN)を用いたアドホックネットワークにおけるデータ分散のためのタスク非依存,分散化,低レイテンシ手法を提案する。
当社のアプローチは、グローバル状態情報に基づいたマルチエージェントアルゴリズムを各ロボットで利用可能にすることで機能させます。
我々は,情報の平均年齢を報酬関数として強化学習を通じて分散gnn通信政策を訓練し,タスク固有の報酬関数と比較してトレーニング安定性が向上することを示す。
論文 参考訳(メタデータ) (2021-03-08T21:48:55Z) - Decentralised Learning from Independent Multi-Domain Labels for Person
Re-Identification [69.29602103582782]
ディープラーニングは多くのコンピュータビジョンタスクで成功している。
しかし、プライバシー問題に対する意識の高まりは、特に人物の再識別(Re-ID)において、ディープラーニングに新たな課題をもたらす。
我々は,複数のプライバシ保護されたローカルモデル(ローカルクライアント)を同時に学習することにより,汎用的なグローバルモデル(中央サーバ)を構築するための,フェデレート・パーソナライゼーション(FedReID)と呼ばれる新しいパラダイムを提案する。
このクライアントサーバ共同学習プロセスは、プライバシコントロールの下で反復的に実行されるため、分散データを共有したり、収集したりすることなく、分散学習を実現することができる。
論文 参考訳(メタデータ) (2020-06-07T13:32:33Z) - Locally Private Distributed Reinforcement Learning [0.76146285961466]
我々は、強化学習のための局所微分プライベートアルゴリズムについて研究する。
提案アルゴリズムでは,ローカルエージェントが環境内のモデルを更新する。
報告されたノイズ勾配のセットを利用することで、中央アグリゲータはそのモデルを更新し、異なるローカルエージェントに配信する。
論文 参考訳(メタデータ) (2020-01-31T09:03:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。