論文の概要: The Past and Present of Imitation Learning: A Citation Chain Study
- arxiv url: http://arxiv.org/abs/2001.02328v1
- Date: Wed, 8 Jan 2020 00:58:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-13 09:42:04.968058
- Title: The Past and Present of Imitation Learning: A Citation Chain Study
- Title(参考訳): 模倣学習の過去と現在 : 引用連鎖研究
- Authors: Nishanth Kumar
- Abstract要約: 模擬学習を行うための様々な方法の開発について検討する。
私は、印象的なImitation Learning手法を開発するために、連続して構築される4つの目印となる論文の調査に焦点を合わせます。
- 参考スコア(独自算出の注目度): 1.5011696375260442
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Imitation Learning is a promising area of active research. Over the last 30
years, Imitation Learning has advanced significantly and been used to solve
difficult tasks ranging from Autonomous Driving to playing Atari games. In the
course of this development, different methods for performing Imitation Learning
have fallen into and out of favor. In this paper, I explore the development of
these different methods and attempt to examine how the field has progressed. I
focus my analysis on surveying 4 landmark papers that sequentially build upon
each other to develop increasingly impressive Imitation Learning methods.
- Abstract(参考訳): 模倣学習は活発な研究の有望な領域である。
過去30年間、Imitation Learningは大幅に進歩し、自律運転からアタリゲームまで、困難なタスクの解決に利用されてきた。
この発展の過程で、模倣学習を行うための様々な方法が好まれてきた。
本稿では,これらの異なる手法の開発について検討し,この分野の進展について考察する。
私は、印象的なImitation Learning手法を開発するために、連続して構築される4つのランドマーク論文の調査に焦点を合わせます。
関連論文リスト
- Continual Learning: Applications and the Road Forward [111.29463576484461]
継続的学習は、機械学習モデルが、過去に学んだことを忘れずに知識を蓄積することで、新しいデータを継続的に学習できるようにすることを目的としている。
我々は3つの主要な機械学習カンファレンスで発行された最近の連続的な学習論文を調査してステージを設定した。
機械学習における5つのオープンな問題について議論し、継続的学習が必然的にそのソリューションの一部であることを示す。
論文 参考訳(メタデータ) (2023-11-20T16:40:29Z) - Robust Internal Representations for Domain Generalization [23.871860648919593]
本稿では,埋め込み空間を利用したトランスファーラーニングにおける私の研究の包括的調査として機能する。
私の研究は、いくつかのショット学習、ゼロショット学習、連続学習、ドメイン適応、分散学習など、トランスファーラーニングのさまざまな設定について詳しく調べています。
論文 参考訳(メタデータ) (2023-09-27T09:41:02Z) - A Comprehensive Survey of Forgetting in Deep Learning Beyond Continual
Learning [76.47138162283714]
蓄積とは、以前取得した情報や知識の喪失または劣化を指す。
フォッテッティングは、深層学習における様々な研究領域でよく見られる現象である。
調査では、忘れることは二重刃の剣であり、ある場合には有益で望ましいと論じている。
論文 参考訳(メタデータ) (2023-07-16T16:27:58Z) - A Comprehensive Survey of Continual Learning: Theory, Method and
Application [64.23253420555989]
本稿では,基礎的設定,理論的基礎,代表的方法,実践的応用を橋渡しする継続的学習に関する包括的調査を行う。
連続学習の一般的な目的は、資源効率の文脈において、適切な安定性と塑性のトレードオフと適切なタスク内/タスク内一般化性を保証することであると要約する。
論文 参考訳(メタデータ) (2023-01-31T11:34:56Z) - Self-Supervised Learning for Videos: A Survey [70.37277191524755]
自己教師型学習は、画像ドメインとビデオドメインの両方で有望である。
本稿では,ビデオ領域に着目した自己教師型学習における既存のアプローチについて概観する。
論文 参考訳(メタデータ) (2022-06-18T00:26:52Z) - Deep Apprenticeship Learning for Playing Games [0.0]
複雑な多次元タスクのエキスパート行動に基づく学習モデルの設計の可能性について検討する。
本稿では,強化学習における教師あり学習技術に関する従来の研究をもとに,新しい見習い学習手法を提案する。
本手法は,アタリゲームからの映像フレームに適用し,人工エージェントによるゲームプレイの指導を行う。
論文 参考訳(メタデータ) (2022-05-16T19:52:45Z) - Imitation Learning: Progress, Taxonomies and Opportunities [8.362917578701563]
模倣学習は、人間の行動の再現のために、人間の専門家のデモンストレーションや人工的に作られたエージェントから知識を抽出することを目的としている。
その成功は、ビデオゲーム、自律運転、ロボットシミュレーション、オブジェクト操作などの分野で実証されている。
ほとんどの訓練されたエージェントは、タスク固有の環境でうまく機能するように制限されている。
論文 参考訳(メタデータ) (2021-06-23T05:55:33Z) - Transfer Learning in Deep Reinforcement Learning: A Survey [64.36174156782333]
強化学習は、シーケンシャルな意思決定問題を解決するための学習パラダイムである。
近年、ディープニューラルネットワークの急速な発展により、強化学習の顕著な進歩が見られた。
転校学習は 強化学習が直面する様々な課題に 対処するために生まれました
論文 参考訳(メタデータ) (2020-09-16T18:38:54Z) - Curriculum Learning for Reinforcement Learning Domains: A Framework and
Survey [53.73359052511171]
強化学習(Reinforcement Learning, RL)は、エージェントが限られた環境フィードバックしか持たないシーケンシャルな意思決定タスクに対処するための一般的なパラダイムである。
本稿では、RLにおけるカリキュラム学習(CL)の枠組みを提案し、既存のCLメソッドを仮定、能力、目標の観点から調査・分類する。
論文 参考訳(メタデータ) (2020-03-10T20:41:24Z) - A new Potential-Based Reward Shaping for Reinforcement Learning Agent [0.0]
提案手法はエピソードの累積報酬から知識を抽出する。
その結果,シングルタスクとマルチタスク強化学習エージェントの学習プロセスの改善が示唆された。
論文 参考訳(メタデータ) (2019-02-17T10:34:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。