論文の概要: Procedural generation of meta-reinforcement learning tasks
- arxiv url: http://arxiv.org/abs/2302.05583v2
- Date: Sat, 9 Dec 2023 04:52:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-12 22:53:05.524886
- Title: Procedural generation of meta-reinforcement learning tasks
- Title(参考訳): メタ強化学習タスクの手続き生成
- Authors: Thomas Miconi
- Abstract要約: 本稿では,任意の刺激を伴うメタ強化学習(meta-RL)タスクのためのパラメータ空間について述べる。
パラメトリゼーションは、バンディット問題、ハーロータスク、T迷路、ドー2ステップタスクなど、よく知られたメタRLタスクを含むのに十分な表現である。
本稿では, 様々な複雑さのメタRLドメインをランダムに生成し, ランダム生成による潜在的な問題について議論する。
- 参考スコア(独自算出の注目度): 1.2328446298523066
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Open-endedness stands to benefit from the ability to generate an infinite
variety of diverse, challenging environments. One particularly interesting type
of challenge is meta-learning ("learning-to-learn"), a hallmark of intelligent
behavior. However, the number of meta-learning environments in the literature
is limited. Here we describe a parametrized space for simple meta-reinforcement
learning (meta-RL) tasks with arbitrary stimuli. The parametrization allows us
to randomly generate an arbitrary number of novel simple meta-learning tasks.
The parametrization is expressive enough to include many well-known meta-RL
tasks, such as bandit problems, the Harlow task, T-mazes, the Daw two-step task
and others. Simple extensions allow it to capture tasks based on
two-dimensional topological spaces, such as full mazes or find-the-spot
domains. We describe a number of randomly generated meta-RL domains of varying
complexity and discuss potential issues arising from random generation.
- Abstract(参考訳): オープン拡張性は、無限に多様な挑戦的な環境を作り出す能力から恩恵を受ける。
特に興味深い課題の1つは、知的行動の指標であるメタラーニング("learning-to-learn")である。
しかし,文学におけるメタ学習環境は限られている。
本稿では,任意の刺激を伴うメタ強化学習(meta-RL)タスクのパラメータ化空間について述べる。
パラメータ化により、任意の数の新しいメタ学習タスクをランダムに生成できる。
パラメトリゼーションは、バンディット問題、ハーロータスク、T迷路、ドー2ステップタスクなど、よく知られたメタRLタスクを含むのに十分な表現である。
単純な拡張により、全迷路やスポット領域のような2次元位相空間に基づくタスクをキャプチャできる。
本稿では,様々な複雑さのメタRLドメインをランダムに生成し,ランダム生成による潜在的な問題について議論する。
関連論文リスト
- AMAGO-2: Breaking the Multi-Task Barrier in Meta-Reinforcement Learning with Transformers [28.927809804613215]
我々はTransformerベースの(コンテキスト内での)メタRLの最近の進歩の上に構築する。
エージェントのアクターと批評家の目的の両方を分類項に変換する、単純でスケーラブルなソリューションを評価する。
この設計は、明示的なタスクラベルを使わずに、オンラインマルチタスク適応とメモリ問題に大きな進歩をもたらす。
論文 参考訳(メタデータ) (2024-11-17T22:25:40Z) - Task-Aware Harmony Multi-Task Decision Transformer for Offline Reinforcement Learning [70.96345405979179]
オフラインマルチタスク強化学習(MTRL)の目的は、オンライン環境相互作用を必要とせず、多様なタスクに適用可能な統一されたポリシーを開発することである。
タスクの内容と複雑さの変化は、政策の定式化において重大な課題を引き起こします。
本稿では,各タスクに対するパラメータの最適な調和部分空間を特定するための新しいソリューションであるHarmoDT(Harmony Multi-Task Decision Transformer)を紹介する。
論文 参考訳(メタデータ) (2024-11-02T05:49:14Z) - MetaModulation: Learning Variational Feature Hierarchies for Few-Shot
Learning with Fewer Tasks [63.016244188951696]
本稿では,タスクを減らした少数ショット学習手法を提案する。
メタトレーニングタスクを増やすために、さまざまなバッチレベルでパラメータを変更します。
また,変分法を取り入れた学習的変分特徴階層も導入する。
論文 参考訳(メタデータ) (2023-05-17T15:47:47Z) - Fully Online Meta-Learning Without Task Boundaries [80.09124768759564]
この性質のオンライン問題にメタラーニングを適用する方法について検討する。
タスク境界に関する基礎的な真理知識を必要としない完全オンラインメタラーニング(FOML)アルゴリズムを提案する。
実験の結果,FOMLは最先端のオンライン学習手法よりも高速に新しいタスクを学習できることがわかった。
論文 参考訳(メタデータ) (2022-02-01T07:51:24Z) - Meta Automatic Curriculum Learning [35.13646854355393]
メタACLの概念を導入し,それをブラックボックスRL学習者の文脈で形式化する。
本稿では,メタACLの初回インスタンス化であるAGAINについて述べる。
論文 参考訳(メタデータ) (2020-11-16T14:56:42Z) - Adaptive Task Sampling for Meta-Learning [79.61146834134459]
数ショットの分類のためのメタラーニングの鍵となるアイデアは、テスト時に直面した数ショットの状況を模倣することである。
一般化性能を向上させるための適応型タスクサンプリング手法を提案する。
論文 参考訳(メタデータ) (2020-07-17T03:15:53Z) - Task-similarity Aware Meta-learning through Nonparametric Kernel
Regression [8.801367758434335]
本稿では,非パラメトリックカーネル回帰を用いたタスク類似性を考慮したメタ学習アルゴリズムを提案する。
我々の仮説は、相似性の使用は、利用可能なタスクが限られており、不整合/相似タスクを含む場合、メタラーニングに役立つというものである。
論文 参考訳(メタデータ) (2020-06-12T14:15:11Z) - Learning to Learn to Disambiguate: Meta-Learning for Few-Shot Word Sense
Disambiguation [26.296412053816233]
単語感覚の曖昧さを解消するメタラーニングフレームワークを提案する。
ゴールは、少数のラベル付きインスタンスから目に見えない単語をあいまいにすることを学ぶことである。
このシナリオにいくつかの一般的なメタ学習アプローチを拡張し、その強みと弱点を分析します。
論文 参考訳(メタデータ) (2020-04-29T17:33:31Z) - Meta-Learning across Meta-Tasks for Few-Shot Learning [107.44950540552765]
我々は,メタ・ラーニングを支援するために,メタ・タスク間の関係を活用すべきであり,これらのタスクを戦略的にサンプリングするべきだと論じている。
2種類のメタタスクペアで定義された関係を考察し、それらを活用するための異なる戦略を提案する。
論文 参考訳(メタデータ) (2020-02-11T09:25:13Z) - Meta Reinforcement Learning with Autonomous Inference of Subtask
Dependencies [57.27944046925876]
本稿では,タスクがサブタスクグラフによって特徴づけられるような,新しい数発のRL問題を提案し,対処する。
メタ政治を直接学習する代わりに、Subtask Graph Inferenceを使ったメタラーナーを開発した。
実験の結果,2つのグリッドワールド領域とStarCraft II環境において,提案手法が潜在タスクパラメータを正確に推定できることが確認された。
論文 参考訳(メタデータ) (2020-01-01T17:34:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。