論文の概要: Tackling Visual Control via Multi-View Exploration Maximization
- arxiv url: http://arxiv.org/abs/2211.15233v1
- Date: Mon, 28 Nov 2022 11:29:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-29 15:57:41.964755
- Title: Tackling Visual Control via Multi-View Exploration Maximization
- Title(参考訳): マルチビュー探索最大化による視覚制御
- Authors: Mingqi Yuan, Xin Jin, Bo Li, Wenjun Zeng
- Abstract要約: MEMは強化学習における多視点表現学習と報酬駆動探索を組み合わせた最初のアプローチである
我々は,DeepMind Control Suite と Procgen の様々なタスクにおける MEM の評価を行った。
- 参考スコア(独自算出の注目度): 64.8463574294237
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present MEM: Multi-view Exploration Maximization for tackling complex
visual control tasks. To the best of our knowledge, MEM is the first approach
that combines multi-view representation learning and intrinsic reward-driven
exploration in reinforcement learning (RL). More specifically, MEM first
extracts the specific and shared information of multi-view observations to form
high-quality features before performing RL on the learned features, enabling
the agent to fully comprehend the environment and yield better actions.
Furthermore, MEM transforms the multi-view features into intrinsic rewards
based on entropy maximization to encourage exploration. As a result, MEM can
significantly promote the sample-efficiency and generalization ability of the
RL agent, facilitating solving real-world problems with high-dimensional
observations and spare-reward space. We evaluate MEM on various tasks from
DeepMind Control Suite and Procgen games. Extensive simulation results
demonstrate that MEM can achieve superior performance and outperform the
benchmarking schemes with simple architecture and higher efficiency.
- Abstract(参考訳): 本稿では,複雑なビジュアル制御タスクに取り組むためのマルチビュー探索の最大化について述べる。
我々の知る限りでは、MEMは多視点表現学習と本質的な報酬駆動による強化学習(RL)を組み合わせた最初のアプローチである。
より具体的には、memはまずマルチビュー観察の具体的かつ共有的な情報を抽出し、学習した機能でrlを実行する前に高品質な機能を形成する。
さらに、MEMは多視点特徴をエントロピー最大化に基づく固有報酬に変換することにより探索を促進する。
その結果、MEMはRLエージェントの試料効率と一般化能力を著しく向上させ、高次元の観測と余剰空間で現実の問題を解くのに役立てることができる。
我々は,DeepMind Control Suite と Procgen の様々なタスクにおける MEM の評価を行った。
広範なシミュレーション結果から、memは優れたパフォーマンスを達成でき、単純なアーキテクチャと高い効率でベンチマークスキームを上回ることが示される。
関連論文リスト
- Brain-Inspired Stepwise Patch Merging for Vision Transformers [6.108377966393714]
本稿では,ステップワイズ・パッチ・マージ(SPM)と呼ばれる新しい手法を提案する。
ImageNet-1K、COCO、ADE20Kなどのベンチマークデータセットで実施された大規模な実験は、SPMが様々なモデルの性能を大幅に改善することを示した。
論文 参考訳(メタデータ) (2024-09-11T03:04:46Z) - MMEvol: Empowering Multimodal Large Language Models with Evol-Instruct [148.39859547619156]
我々は,新しいマルチモーダル命令データ進化フレームワークであるMMEvolを提案する。
MMEvolは、きめ細かい知覚、認知的推論、相互作用の進化の洗練された組み合わせによって、データ品質を反復的に改善する。
提案手法は,9つのタスクにおいて,最先端モデルに比べて有意に少ない精度でSOTA(State-of-the-art)性能を実現する。
論文 参考訳(メタデータ) (2024-09-09T17:44:00Z) - SG-MIM: Structured Knowledge Guided Efficient Pre-training for Dense Prediction [17.44991827937427]
マスク付き画像モデリング技術はコンピュータビジョンの景観を再定義した。
その成功にもかかわらず、密集予測タスク、特に深度推定におけるMIMベースの手法の可能性は未解決のままである。
SG-MIM(Structured Knowledge Guided Masked Image Modeling framework)を提案する。
論文 参考訳(メタデータ) (2024-09-04T08:24:53Z) - Sample Efficient Myopic Exploration Through Multitask Reinforcement
Learning with Diverse Tasks [53.44714413181162]
本稿では, エージェントが十分に多様なタスクセットで訓練された場合, 筋電図探索設計による一般的なポリシー共有アルゴリズムは, サンプル効率がよいことを示す。
我々の知る限りでは、これはMTRLの「探索的利益」の初めての理論的実証である。
論文 参考訳(メタデータ) (2024-03-03T22:57:44Z) - UMIE: Unified Multimodal Information Extraction with Instruction Tuning [12.777967562175437]
命令チューニングを用いた生成問題として、3つのMIEタスクを統一する統合マルチモーダル情報抽出器UMIEを提案する。
大規模な実験により、私たちのUMIEは6つのMIEデータセットで3つのタスクで様々な最先端(SoTA)メソッドより優れています。
本研究は,MIEモデルを統一化するための最初のステップとして機能し,MIEドメイン内の命令チューニングモデルと大規模言語モデルの両方を探索する。
論文 参考訳(メタデータ) (2024-01-05T22:52:15Z) - Exploiting Modality-Specific Features For Multi-Modal Manipulation
Detection And Grounding [54.49214267905562]
マルチモーダルな操作検出とグラウンド処理のためのトランスフォーマーベースのフレームワークを構築する。
本フレームワークは,マルチモーダルアライメントの能力を維持しながら,モダリティ特有の特徴を同時に探求する。
本稿では,グローバルな文脈的キューを各モーダル内に適応的に集約する暗黙的操作クエリ(IMQ)を提案する。
論文 参考訳(メタデータ) (2023-09-22T06:55:41Z) - Summary-Oriented Vision Modeling for Multimodal Abstractive
Summarization [63.320005222549646]
マルチモーダル抽象要約(MAS)は、マルチモーダルデータ(テキストとビジョン)から簡潔な要約を作成することを目的としている。
本稿では,要約指向の視覚的特徴によって要約品質を改善することを提案する。
中高、低低、ゼロリソースのシナリオをカバーする44言語の実験は、提案手法の有効性と優位性を検証する。
論文 参考訳(メタデータ) (2022-12-15T09:05:26Z) - Collaborative Attention Mechanism for Multi-View Action Recognition [75.33062629093054]
本稿では,多視点行動認識問題を解決するための協調的注意機構(CAM)を提案する。
提案したCAMは,多視点間での注意差を検出し,フレームレベルの情報を適応的に統合し,相互に利益をもたらす。
4つのアクションデータセットの実験では、提案されたCAMは、ビュー毎により良い結果を得るとともに、マルチビューのパフォーマンスも向上する。
論文 参考訳(メタデータ) (2020-09-14T17:33:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。