論文の概要: Learning to Abstract Visuomotor Mappings using Meta-Reinforcement
Learning
- arxiv url: http://arxiv.org/abs/2402.03072v1
- Date: Mon, 5 Feb 2024 15:02:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-06 15:30:49.631391
- Title: Learning to Abstract Visuomotor Mappings using Meta-Reinforcement
Learning
- Title(参考訳): meta-reinforcement learning を用いた visuomotor mapping の抽象化学習
- Authors: Carlos A. Velazquez-Vargas, Isaac Ray Christian, Jordan A. Taylor and
Sreejan Kumar
- Abstract要約: De novo スキルのための複数のビズモータマッピングを人体で取得する能力について検討した。
我々は、異なる"グリッドワールド"として実装された文脈的手がかりが、参加者が2つの異なるキーマッピングをより効率的に学習できるかどうかを検証した。
- 参考スコア(独自算出の注目度): 1.0650780147044159
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We investigated the human capacity to acquire multiple visuomotor mappings
for de novo skills. Using a grid navigation paradigm, we tested whether
contextual cues implemented as different "grid worlds", allow participants to
learn two distinct key-mappings more efficiently. Our results indicate that
when contextual information is provided, task performance is significantly
better. The same held true for meta-reinforcement learning agents that differed
in whether or not they receive contextual information when performing the task.
We evaluated their accuracy in predicting human performance in the task and
analyzed their internal representations. The results indicate that contextual
cues allow the formation of separate representations in space and time when
using different visuomotor mappings, whereas the absence of them favors sharing
one representation. While both strategies can allow learning of multiple
visuomotor mappings, we showed contextual cues provide a computational
advantage in terms of how many mappings can be learned.
- Abstract(参考訳): de novoスキルのための複数の visuomotor mapping を取得するためのヒューマンキャパシティを調査した。
グリッドナビゲーションのパラダイムを用いて、異なる「グリッドワールド」として実装された文脈的手がかりが、2つの異なるキーマッピングをより効率的に学習できるかどうかを検証した。
その結果,コンテキスト情報を提供する場合,タスク性能が著しく向上することが示唆された。
同じことが、タスクの実行時にコンテキスト情報を受け取るかどうかが異なるメタ強化学習エージェントにも当てはまる。
作業中の人的パフォーマンスを予測する際の精度を評価し,その内部表現を分析した。
その結果、文脈的手がかりは、異なるヴィスモータ写像を使用する場合、空間と時間における別々の表現を形成できるが、それらの欠如は1つの表現を共有することを好む。
どちらの戦略も複数のヴィスモータマッピングの学習を可能にするが、文脈的手がかりはどれだけのマッピングを学べるかという観点で計算的な利点をもたらすことを示した。
関連論文リスト
- MOCA: Self-supervised Representation Learning by Predicting Masked Online Codebook Assignments [72.6405488990753]
自己教師付き学習は、ビジョントランスフォーマーネットワークの欲求を軽減できる。
所望のプロパティを統一する単段および単段のMOCAを提案する。
我々は,様々な評価プロトコルにおいて,低照度設定と強力な実験結果に対して,最先端の新たな結果を得る。
論文 参考訳(メタデータ) (2023-07-18T15:46:20Z) - MTLSegFormer: Multi-task Learning with Transformers for Semantic
Segmentation in Precision Agriculture [16.817025300716796]
マルチタスク学習とアテンション機構を組み合わせたセマンティックセグメンテーション手法MTLSegFormerを提案する。
相関したタスクで2つの困難な問題で性能を検証し、精度を大幅に改善した。
論文 参考訳(メタデータ) (2023-05-04T13:19:43Z) - Learning Transferable Pedestrian Representation from Multimodal
Information Supervision [174.5150760804929]
VAL-PATは、移動可能な表現を学習し、様々な歩行者分析タスクをマルチモーダル情報で強化する新しいフレームワークである。
まず、LUPerson-TAデータセットで事前トレーニングを行い、各画像にはテキストと属性アノテーションが含まれている。
次に、学習した表現を、人物のreID、人物属性認識、テキストベースの人物検索など、さまざまな下流タスクに転送する。
論文 参考訳(メタデータ) (2023-04-12T01:20:58Z) - Accelerating exploration and representation learning with offline
pre-training [52.6912479800592]
1つのオフラインデータセットから2つの異なるモデルを別々に学習することで、探索と表現の学習を改善することができることを示す。
ノイズコントラスト推定と補助報酬モデルを用いて状態表現を学習することで、挑戦的なNetHackベンチマークのサンプル効率を大幅に向上できることを示す。
論文 参考訳(メタデータ) (2023-03-31T18:03:30Z) - From Visual Prompt Learning to Zero-Shot Transfer: Mapping Is All You
Need [18.42388423333944]
本稿では、事前訓練されたモデルの知識と下流タスクとのセマンティックアライメントを用いたより効果的なマッピングであるSeMapを提案する。
その結果,提案したSeMapは,視覚的即興学習とゼロショット転送の両方において,大きな進歩をもたらす可能性が示唆された。
論文 参考訳(メタデータ) (2023-03-09T13:59:49Z) - Self-Supervised Graph Neural Network for Multi-Source Domain Adaptation [51.21190751266442]
ドメイン適応(DA)は、テストデータがトレーニングデータの同じ分布に完全に従わない場合に、シナリオに取り組む。
大規模未ラベルサンプルから学習することで、自己教師型学習がディープラーニングの新しいトレンドとなっている。
我々は,より効果的なタスク間情報交換と知識共有を実現するために,新しい textbfSelf-textbf Supervised textbfGraph Neural Network (SSG) を提案する。
論文 参考訳(メタデータ) (2022-04-08T03:37:56Z) - Self-Supervised Visual Representation Learning Using Lightweight
Architectures [0.0]
自己教師付き学習では、マシンによってアノテーションが生成されるデータセットを使用して、プレテキストタスクを解決するためにモデルが訓練される。
我々は、画像データから特徴を抽出する最も顕著な前文タスクを批判的に検討する。
我々は、他の全てのパラメータを均一に保ちながら、様々な自己監督技術の性能について研究する。
論文 参考訳(メタデータ) (2021-10-21T14:13:10Z) - Learning Invariant Representations for Reinforcement Learning without
Reconstruction [98.33235415273562]
本研究では,表現学習が画像などのリッチな観察からの強化学習を,ドメイン知識や画素再構成に頼ることなく促進する方法について検討する。
シミュレーションメトリクスは、連続MDPの状態間の振る舞いの類似性を定量化する。
修正された視覚的 MuJoCo タスクを用いてタスク関連情報を無視する手法の有効性を実証する。
論文 参考訳(メタデータ) (2020-06-18T17:59:35Z) - Multi-Task Learning for Dense Prediction Tasks: A Survey [87.66280582034838]
マルチタスク学習(MTL)技術は、性能、計算、メモリフットプリントに関する有望な結果を示している。
我々は、コンピュータビジョンにおけるMLLのための最先端のディープラーニングアプローチについて、よく理解された視点を提供する。
論文 参考訳(メタデータ) (2020-04-28T09:15:50Z) - Analyzing Visual Representations in Embodied Navigation Tasks [45.35107294831313]
我々は、最近提案されたプロジェクション重み付き正準相関解析(PWCCA)を用いて、異なるタスクを実行することで、同じ環境で学習した視覚的表現の類似度を測定する。
次に、あるタスクで学習した視覚的表現が、別のタスクに効果的に転送できることを実証的に示す。
論文 参考訳(メタデータ) (2020-03-12T19:43:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。