論文の概要: Triple-GAIL: A Multi-Modal Imitation Learning Framework with Generative
Adversarial Nets
- arxiv url: http://arxiv.org/abs/2005.10622v2
- Date: Fri, 22 May 2020 01:05:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 13:04:18.160314
- Title: Triple-GAIL: A Multi-Modal Imitation Learning Framework with Generative
Adversarial Nets
- Title(参考訳): Triple-GAIL: 生成的逆数ネットを用いたマルチモーダル模倣学習フレームワーク
- Authors: Cong Fei, Bin Wang, Yuzheng Zhuang, Zongzhang Zhang, Jianye Hao,
Hongbo Zhang, Xuewu Ji and Wulong Liu
- Abstract要約: Triple-GAILは、専門家によるデモンストレーションとデータ拡張の目的で連続的に生成された経験から、スキルの選択と模倣を共同で学ぶことができる。
実運転軌道とリアルタイム戦略ゲームデータセットの実験は、Triple-GAILがデモ参加者に近いマルチモーダル動作に適合できることを実証している。
- 参考スコア(独自算出の注目度): 34.17829944466169
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative adversarial imitation learning (GAIL) has shown promising results
by taking advantage of generative adversarial nets, especially in the field of
robot learning. However, the requirement of isolated single modal
demonstrations limits the scalability of the approach to real world scenarios
such as autonomous vehicles' demand for a proper understanding of human
drivers' behavior. In this paper, we propose a novel multi-modal GAIL
framework, named Triple-GAIL, that is able to learn skill selection and
imitation jointly from both expert demonstrations and continuously generated
experiences with data augmentation purpose by introducing an auxiliary skill
selector. We provide theoretical guarantees on the convergence to optima for
both of the generator and the selector respectively. Experiments on real driver
trajectories and real-time strategy game datasets demonstrate that Triple-GAIL
can better fit multi-modal behaviors close to the demonstrators and outperforms
state-of-the-art methods.
- Abstract(参考訳): ジェネレーティブ・逆境模倣学習(GAIL)は,特にロボット学習分野において,生成的逆境ネットを活用することで,有望な結果を示した。
しかし、分離された単一モーダルデモンストレーションの要求は、人間のドライバーの振る舞いを適切に理解するために、自動運転車の要求のような現実のシナリオへのアプローチのスケーラビリティを制限する。
本稿では,多モードGAILフレームワークであるTriple-GAILを提案する。このフレームワークは,専門家によるデモンストレーションとデータ拡張目的の連続的な経験から,スキル選択と模倣を共同で学習することができる。
ジェネレータとセレクタの両方に対して、それぞれオプティマへの収束に関する理論的保証を提供する。
実際のドライバー軌道とリアルタイム戦略ゲームデータセットに関する実験は、トリプルゲイルがデモストラクタに近いマルチモーダルな動作に適合し、最先端のメソッドを上回ることを証明している。
関連論文リスト
- Learning Robust Anymodal Segmentor with Unimodal and Cross-modal Distillation [30.33381342502258]
主な課題はユニモーダルバイアス(unimodal bias)であり、マルチモーダルセグメンタが特定のモダリティに依存しているため、他のセグメンタが欠落するとパフォーマンスが低下する。
視覚的モダリティの組み合わせを扱える頑健なセグメンタを学習するための最初のフレームワークを開発する。
論文 参考訳(メタデータ) (2024-11-26T06:15:27Z) - DeepInteraction++: Multi-Modality Interaction for Autonomous Driving [80.8837864849534]
我々は,モダリティごとの個別表現を学習し,維持することのできる,新しいモダリティインタラクション戦略を導入する。
DeepInteraction++はマルチモーダルなインタラクション・フレームワークであり、マルチモーダルな表現型インタラクション・エンコーダとマルチモーダルな予測型インタラクション・デコーダを特徴とする。
実験では,3次元物体検出とエンドツーエンドの自律走行の両方において,提案手法の優れた性能を示す。
論文 参考訳(メタデータ) (2024-08-09T14:04:21Z) - Drive Anywhere: Generalizable End-to-end Autonomous Driving with
Multi-modal Foundation Models [114.69732301904419]
本稿では、画像とテキストで検索可能な表現から、運転決定を提供することができる、エンドツーエンドのオープンセット(環境/シーン)自律運転を適用するアプローチを提案する。
当社のアプローチでは, 多様なテストにおいて非並列的な結果を示すと同時に, アウト・オブ・ディストリビューションの状況において, はるかに高いロバスト性を実現している。
論文 参考訳(メタデータ) (2023-10-26T17:56:35Z) - Exploiting Modality-Specific Features For Multi-Modal Manipulation
Detection And Grounding [54.49214267905562]
マルチモーダルな操作検出とグラウンド処理のためのトランスフォーマーベースのフレームワークを構築する。
本フレームワークは,マルチモーダルアライメントの能力を維持しながら,モダリティ特有の特徴を同時に探求する。
本稿では,グローバルな文脈的キューを各モーダル内に適応的に集約する暗黙的操作クエリ(IMQ)を提案する。
論文 参考訳(メタデータ) (2023-09-22T06:55:41Z) - Generating Personas for Games with Multimodal Adversarial Imitation
Learning [47.70823327747952]
強化学習は、人間のレベルでゲームをすることができるエージェントを生産する上で、広く成功している。
強化学習を超えて進むことは、幅広い人間のプレイスタイルをモデル化するために必要である。
本稿では,プレイテストのための複数のペルソナポリシーを生成するための,新しい模倣学習手法を提案する。
論文 参考訳(メタデータ) (2023-08-15T06:58:19Z) - A Two-stage Fine-tuning Strategy for Generalizable Manipulation Skill of
Embodied AI [15.480968464853769]
そこで我々は,Maniskill2ベンチマークに基づく2段階ファインチューニング手法を提案する。
本研究は,Embodied AIモデルの一般化能力を向上し,現実のシナリオにおける実践的応用の道を開く手法の可能性を明らかにするものである。
論文 参考訳(メタデータ) (2023-07-21T04:15:36Z) - Generalized Multimodal ELBO [11.602089225841631]
複数のデータ型は、現実世界の現象を記述し、そこから学習する際に自然に共起する。
ELBOを近似する既存の自己制御生成モデルは、マルチモーダルモデルのすべての要求を満たすことができない。
これらの制限を克服したマルチモーダルデータのための新しい一般化ELBO定式化を提案する。
論文 参考訳(メタデータ) (2021-05-06T07:05:00Z) - UPDeT: Universal Multi-agent Reinforcement Learning via Policy
Decoupling with Transformers [108.92194081987967]
タスクに適合する1つのアーキテクチャを設計し、汎用的なマルチエージェント強化学習パイプラインを最初に試行する。
従来のRNNモデルとは異なり、トランスフォーマーモデルを用いてフレキシブルなポリシーを生成する。
提案方式はUPDeT(Universal Policy Decoupling Transformer)と名付けられ,動作制限を緩和し,マルチエージェントタスクの決定プロセスをより説明しやすいものにする。
論文 参考訳(メタデータ) (2021-01-20T07:24:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。