論文の概要: Energy Weighted Learning Progress Guided Interleaved Multi-Task Learning
- arxiv url: http://arxiv.org/abs/2504.00707v1
- Date: Tue, 01 Apr 2025 12:15:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-03 13:23:21.889053
- Title: Energy Weighted Learning Progress Guided Interleaved Multi-Task Learning
- Title(参考訳): インターリーブ型マルチタスク学習におけるエネルギー重み付き学習の進歩
- Authors: Hanne Say, Suzan Ece Ada, Emre Ugur, Erhan Oztop,
- Abstract要約: 機械学習における「連続学習」は、獲得した知識を保存しながら新しい情報を学ぶことを目的としている。
本稿では,その「学習の進歩」とエネルギー消費に基づいてタスクをインターリーブする手法を提案する。
機械学習の観点から、我々のアプローチはマルチタスク学習システムと見なすことができる。
- 参考スコア(独自算出の注目度): 1.5749416770494706
- License:
- Abstract: Humans can continuously acquire new skills and knowledge by exploiting existing ones for improved learning, without forgetting them. Similarly, 'continual learning' in machine learning aims to learn new information while preserving the previously acquired knowledge. Existing research often overlooks the nature of human learning, where tasks are interleaved due to human choice or environmental constraints. So, almost never do humans master one task before switching to the next. To investigate to what extent human-like learning can benefit the learner, we propose a method that interleaves tasks based on their 'learning progress' and energy consumption. From a machine learning perspective, our approach can be seen as a multi-task learning system that balances learning performance with energy constraints while mimicking ecologically realistic human task learning. To assess the validity of our approach, we consider a robot learning setting in simulation, where the robot learns the effect of its actions in different contexts. The conducted experiments show that our proposed method achieves better performance than sequential task learning and reduces energy consumption for learning the tasks.
- Abstract(参考訳): 人間は、学習を改善するために既存のスキルを活用して、それを忘れずに、新しいスキルと知識を継続的に獲得することができる。
同様に、機械学習における「連続学習」は、以前に獲得した知識を保存しながら、新しい情報を学ぶことを目的としている。
既存の研究はしばしば、人間の選択や環境制約によってタスクがインターリーブされる人間の学習の性質を見落としている。
ですから,次のタスクに切り替える前に,人間がひとつのタスクをマスターすることはほとんどありません。
学習者の「学習進歩」とエネルギー消費に基づいてタスクをインターリーブする手法を提案する。
機械学習の観点から、我々のアプローチは、生態学的に現実的なヒューマンタスク学習を模倣しながら、学習性能とエネルギー制約のバランスをとるマルチタスク学習システムと見なすことができる。
提案手法の有効性を評価するため,ロボットが動作の効果を異なる文脈で学習するシミュレーションにおけるロボット学習環境を検討する。
実験の結果,提案手法は逐次的なタスク学習よりも優れた性能を実現し,タスク学習のエネルギー消費を低減できることがわかった。
関連論文リスト
- SPIRE: Synergistic Planning, Imitation, and Reinforcement Learning for Long-Horizon Manipulation [58.14969377419633]
タスクをより小さな学習サブプロブレムに分解し、第2に模倣と強化学習を組み合わせてその強みを最大化するシステムであるspireを提案する。
我々は、模倣学習、強化学習、計画を統合する従来の手法よりも平均タスク性能が35%から50%向上していることを発見した。
論文 参考訳(メタデータ) (2024-10-23T17:42:07Z) - Unsupervised Skill Discovery for Robotic Manipulation through Automatic Task Generation [17.222197596599685]
本稿では,多数の自律的タスクを解くことで構成可能な振る舞いを発見するスキル学習手法を提案する。
本手法は,ロボットが環境内の物体と連続的かつ堅牢に対話することを可能にするスキルを学習する。
学習したスキルは、シミュレーションだけでなく、本物のロボットプラットフォーム上でも、目に見えない操作タスクのセットを解決するために使用できる。
論文 参考訳(メタデータ) (2024-10-07T09:19:13Z) - Anti-Retroactive Interference for Lifelong Learning [65.50683752919089]
我々は脳のメタラーニングと連想機構に基づく生涯学習のパラダイムを設計する。
知識の抽出と知識の記憶という2つの側面から問題に取り組む。
提案した学習パラダイムが,異なるタスクのモデルを同じ最適に収束させることができることを理論的に分析した。
論文 参考訳(メタデータ) (2022-08-27T09:27:36Z) - Lifelong Robotic Reinforcement Learning by Retaining Experiences [61.79346922421323]
多くのマルチタスク強化学習は、ロボットが常にすべてのタスクからデータを収集できると仮定している。
本研究では,物理ロボットシステムの実用的制約を動機として,現実的なマルチタスクRL問題について検討する。
我々は、ロボットのスキルセットを累積的に成長させるために、過去のタスクで学んだデータとポリシーを効果的に活用するアプローチを導出する。
論文 参考訳(メタデータ) (2021-09-19T18:00:51Z) - Behavior Self-Organization Supports Task Inference for Continual Robot
Learning [18.071689266826212]
本稿では,ロボット制御タスクの連続学習に対する新しいアプローチを提案する。
本手法は, 漸進的に自己組織化された行動によって, 行動埋め込みの教師なし学習を行う。
従来の手法とは異なり,本手法ではタスク分布の仮定は行わず,タスクを推論するタスク探索も必要としない。
論文 参考訳(メタデータ) (2021-07-09T16:37:27Z) - Discovering Generalizable Skills via Automated Generation of Diverse
Tasks [82.16392072211337]
本稿では,多種多様なタスクの自動生成による一般化可能なスキルの発見手法を提案する。
教師なしスキル発見の先行研究とは対照的に,本手法では各スキルをトレーニング可能なタスクジェネレータが生成するユニークなタスクとペアリングする。
生成したタスクにおけるロボットの動作に定義されたタスク判別器を共同で訓練し、多様性目標の低いエビデンスを推定する。
学習スキルは階層的な強化学習アルゴリズムで構成され、目に見えない目標タスクを解決する。
論文 参考訳(メタデータ) (2021-06-26T03:41:51Z) - CRIL: Continual Robot Imitation Learning via Generative and Prediction
Model [8.896427780114703]
本研究では,ロボットが個別に新しいタスクを継続的に学習することを可能にする,連続的な模倣学習能力を実現する方法について研究する。
本稿では,生成的対向ネットワークと動的予測モデルの両方を利用する新しいトラジェクトリ生成モデルを提案する。
本手法の有効性をシミュレーションと実世界操作の両方で実証した。
論文 参考訳(メタデータ) (2021-06-17T12:15:57Z) - Active Hierarchical Imitation and Reinforcement Learning [0.0]
本研究では,我々が開発した階層的模倣強化学習フレームワークを用いて,様々な模倣学習アルゴリズムを探索し,アクティブ学習アルゴリズムを設計した。
実験の結果,daggerと報酬ベースのアクティブラーニング手法は,トレーニング過程において身体的および精神的により多くの努力を省きながら,よりよいパフォーマンスを達成できることがわかった。
論文 参考訳(メタデータ) (2020-12-14T08:27:27Z) - Hierarchical Affordance Discovery using Intrinsic Motivation [69.9674326582747]
本研究では,移動ロボットの価格学習を支援するために,本質的なモチベーションを用いたアルゴリズムを提案する。
このアルゴリズムは、事前にプログラムされたアクションなしで、相互に関連のある価格を自律的に発見し、学習し、適応することができる。
一度学習すると、これらの余裕はアルゴリズムによって様々な困難を伴うタスクを実行するために一連のアクションを計画するために使われる。
論文 参考訳(メタデータ) (2020-09-23T07:18:21Z) - Learning Transferable Concepts in Deep Reinforcement Learning [0.7161783472741748]
感覚入力の離散的な表現を学習することで、複数のタスクに共通するハイレベルな抽象化が得られることを示す。
特に,情報理論のアプローチに従って,自己超越によってそのような表現を学習することは可能であることを示す。
本手法は, 未知タスクと未知タスクの両方において, サンプル効率を高めるための, 機関車および最適制御タスクの概念を学習することができる。
論文 参考訳(メタデータ) (2020-05-16T04:45:51Z) - Scalable Multi-Task Imitation Learning with Autonomous Improvement [159.9406205002599]
我々は、自律的なデータ収集を通じて継続的に改善できる模倣学習システムを構築している。
我々は、ロボット自身の試行を、実際に試みたタスク以外のタスクのデモとして活用する。
従来の模倣学習のアプローチとは対照的に,本手法は,継続的改善のための疎い監視によるデータ収集を自律的に行うことができる。
論文 参考訳(メタデータ) (2020-02-25T18:56:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。