論文の概要: Meta-Learning of Structured Task Distributions in Humans and Machines
- arxiv url: http://arxiv.org/abs/2010.02317v3
- Date: Thu, 18 Mar 2021 13:42:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 20:29:21.384896
- Title: Meta-Learning of Structured Task Distributions in Humans and Machines
- Title(参考訳): 人間と機械の構造的タスク分布のメタラーニング
- Authors: Sreejan Kumar, Ishita Dasgupta, Jonathan D. Cohen, Nathaniel D. Daw,
Thomas L. Griffiths
- Abstract要約: メタラーニングの評価は依然として課題であり、メタラーニングが実際にタスク内に埋め込まれた構造を使っているかどうかを見逃すことができる。
我々は,モデルなし強化学習で訓練されたリカレントネットワークである標準的なメタ学習エージェントを訓練し,それを人間のパフォーマンスと比較する。
エージェントはNullタスク分布において優れているのに対し、構造化されたタスク分布では人間の方が優れている二重解離が見つかる。
- 参考スコア(独自算出の注目度): 15.34209852089588
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, meta-learning, in which a model is trained on a family of
tasks (i.e. a task distribution), has emerged as an approach to training neural
networks to perform tasks that were previously assumed to require structured
representations, making strides toward closing the gap between humans and
machines. However, we argue that evaluating meta-learning remains a challenge,
and can miss whether meta-learning actually uses the structure embedded within
the tasks. These meta-learners might therefore still be significantly different
from humans learners. To demonstrate this difference, we first define a new
meta-reinforcement learning task in which a structured task distribution is
generated using a compositional grammar. We then introduce a novel approach to
constructing a "null task distribution" with the same statistical complexity as
this structured task distribution but without the explicit rule-based structure
used to generate the structured task. We train a standard meta-learning agent,
a recurrent network trained with model-free reinforcement learning, and compare
it with human performance across the two task distributions. We find a double
dissociation in which humans do better in the structured task distribution
whereas agents do better in the null task distribution -- despite comparable
statistical complexity. This work highlights that multiple strategies can
achieve reasonable meta-test performance, and that careful construction of
control task distributions is a valuable way to understand which strategies
meta-learners acquire, and how they might differ from humans.
- Abstract(参考訳): 近年では、モデルがタスク群(すなわちタスク分布)で訓練されるメタラーニングが、以前に構造化表現を必要とすると考えられていたタスクを実行するためにニューラルネットワークを訓練するアプローチとして登場し、人間と機械の間のギャップを縮めるための一歩を踏み出した。
しかし、メタ学習の評価は依然として課題であり、メタ学習が実際にタスク内に埋め込まれた構造を使っているかどうかを見逃すことができる。
したがって、これらのメタ学習者は人間の学習者とは大きく異なるかもしれない。
この違いを示すために,まず,構成文法を用いて構造化タスク分布を生成する新しいメタ強化学習タスクを定義する。
そこで我々は,この構造化されたタスク分布と同じ統計量で,構造化されたタスクを生成するために使用される明示的なルールベース構造を持たず,"nullタスク分布"を構築する新しい手法を提案する。
モデルフリーの強化学習でトレーニングされたリカレントネットワークである標準メタ学習エージェントをトレーニングし,2つのタスク分布におけるヒューマンパフォーマンスと比較した。
統計的な複雑さにもかかわらず、エージェントがヌルタスクの分布を良くするのに対して、構造化されたタスクの分布では人間の方が優れている二重解離が見つかる。
この研究は、複数の戦略が合理的なメタテストのパフォーマンスを達成することを強調し、制御タスクの分散を慎重に構築することは、メタ学習者が獲得する戦略と、それらが人間とどのように異なるかを理解する貴重な方法であることを示した。
関連論文リスト
- Meta-Learning with Heterogeneous Tasks [42.695853959923625]
HeTRoM(Heterogeneous Tasks Robust Meta-learning)
双方向最適化に基づく効率的な反復最適化アルゴリズム
その結果,提案手法の柔軟性が示され,多様なタスク設定に適応できることがわかった。
論文 参考訳(メタデータ) (2024-10-24T16:32:23Z) - ConML: A Universal Meta-Learning Framework with Task-Level Contrastive Learning [49.447777286862994]
ConMLは、さまざまなメタ学習アルゴリズムに適用可能な、普遍的なメタ学習フレームワークである。
我々は、ConMLが最適化ベース、メートル法ベース、およびアモータイズベースメタ学習アルゴリズムとシームレスに統合できることを実証した。
論文 参考訳(メタデータ) (2024-10-08T12:22:10Z) - Task-Distributionally Robust Data-Free Meta-Learning [99.56612787882334]
Data-Free Meta-Learning (DFML)は、複数の事前学習モデルを活用することで、独自のトレーニングデータを必要とせずに、新しいタスクを効率的に学習することを目的としている。
TDS(Task-Distribution Shift)とTDC(Task-Distribution Corruption)の2つの大きな課題を初めて明らかにした。
論文 参考訳(メタデータ) (2023-11-23T15:46:54Z) - Fast Inference and Transfer of Compositional Task Structures for
Few-shot Task Generalization [101.72755769194677]
本稿では,タスクがサブタスクグラフによって特徴づけられる,数発の強化学習問題として定式化する。
我々のマルチタスクサブタスクグラフ推論器(MTSGI)は、トレーニングタスクから、まず、サブタスクグラフの観点から、一般的なハイレベルなタスク構造を推測する。
提案手法は,2次元グリッドワールドおよび複雑なWebナビゲーション領域において,タスクの共通基盤構造を学習し,活用し,未知のタスクへの適応を高速化する。
論文 参考訳(メタデータ) (2022-05-25T10:44:25Z) - MetaICL: Learning to Learn In Context [87.23056864536613]
そこで我々は,メタICLというメタトレーニングフレームワークを紹介した。このフレームワークでは,事前学習された言語モデルが,大量のトレーニングタスクに対してコンテキスト内学習を行うように調整されている。
その結果,MetaICLは,目標タスクトレーニングデータに対して完全に微調整されたモデルの性能にアプローチ(時には打ち負かす)し,ほぼ8倍のパラメータを持つモデルよりも優れた性能を示すことがわかった。
論文 参考訳(メタデータ) (2021-10-29T17:42:08Z) - Latent Group Structured Multi-task Learning [2.827177139912107]
マルチタスク学習(MTL)では,様々なタスクを共同で学習することで,鍵となる機械学習アルゴリズムの性能を向上させる。
本稿では,事前情報によって定義されたグループ構造化タスクを奨励するグループ構造化潜在空間マルチタスク学習モデルを提案する。
合成データセットと実世界のデータセットの両方で実験が行われ、シングルタスク学習よりも競争力のあるパフォーマンスを示している。
論文 参考訳(メタデータ) (2020-11-24T05:38:58Z) - Incremental Meta-Learning via Indirect Discriminant Alignment [118.61152684795178]
メタ学習のメタ学習段階において,段階的な学習の概念を発達させる。
我々のアプローチは、完全なメタトレーニングセットでモデルをトレーニングするのと比べて、テスト時に好適に機能する。
論文 参考訳(メタデータ) (2020-02-11T01:39:12Z) - Automated Relational Meta-learning [95.02216511235191]
本稿では,クロスタスク関係を自動的に抽出し,メタ知識グラフを構築する自動リレーショナルメタ学習フレームワークを提案する。
我々は,2次元玩具の回帰と少数ショット画像分類に関する広範な実験を行い,ARMLが最先端のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-01-03T07:02:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。