論文の概要: The Past and Present of Imitation Learning: A Citation Chain Study
- arxiv url: http://arxiv.org/abs/2001.02328v1
- Date: Wed, 8 Jan 2020 00:58:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-13 09:42:04.968058
- Title: The Past and Present of Imitation Learning: A Citation Chain Study
- Title(参考訳): 模倣学習の過去と現在 : 引用連鎖研究
- Authors: Nishanth Kumar
- Abstract要約: 模擬学習を行うための様々な方法の開発について検討する。
私は、印象的なImitation Learning手法を開発するために、連続して構築される4つの目印となる論文の調査に焦点を合わせます。
- 参考スコア(独自算出の注目度): 1.5011696375260442
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Imitation Learning is a promising area of active research. Over the last 30
years, Imitation Learning has advanced significantly and been used to solve
difficult tasks ranging from Autonomous Driving to playing Atari games. In the
course of this development, different methods for performing Imitation Learning
have fallen into and out of favor. In this paper, I explore the development of
these different methods and attempt to examine how the field has progressed. I
focus my analysis on surveying 4 landmark papers that sequentially build upon
each other to develop increasingly impressive Imitation Learning methods.
- Abstract(参考訳): 模倣学習は活発な研究の有望な領域である。
過去30年間、Imitation Learningは大幅に進歩し、自律運転からアタリゲームまで、困難なタスクの解決に利用されてきた。
この発展の過程で、模倣学習を行うための様々な方法が好まれてきた。
本稿では,これらの異なる手法の開発について検討し,この分野の進展について考察する。
私は、印象的なImitation Learning手法を開発するために、連続して構築される4つのランドマーク論文の調査に焦点を合わせます。
関連論文リスト
- O1 Replication Journey: A Strategic Progress Report -- Part 1 [52.062216849476776]
本稿では,O1 Replication Journeyに具体化された人工知能研究の先駆的アプローチを紹介する。
我々の方法論は、長期化したチームベースのプロジェクトの不規則性を含む、現代のAI研究における重要な課題に対処する。
本稿では,モデルにショートカットだけでなく,完全な探索プロセスの学習を促す旅行学習パラダイムを提案する。
論文 参考訳(メタデータ) (2024-10-08T15:13:01Z) - Continual Learning: Applications and the Road Forward [119.03464063873407]
継続的学習は、機械学習モデルが、過去に学んだことを忘れずに知識を蓄積することで、新しいデータを継続的に学習できるようにすることを目的としている。
この研究は、2023年3月のDagtuhl Seminar on Deep Continual Learningで著者らが行った多くの議論の結果である。
論文 参考訳(メタデータ) (2023-11-20T16:40:29Z) - Robust Internal Representations for Domain Generalization [23.871860648919593]
本稿では,埋め込み空間を利用したトランスファーラーニングにおける私の研究の包括的調査として機能する。
私の研究は、いくつかのショット学習、ゼロショット学習、連続学習、ドメイン適応、分散学習など、トランスファーラーニングのさまざまな設定について詳しく調べています。
論文 参考訳(メタデータ) (2023-09-27T09:41:02Z) - A Comprehensive Survey of Forgetting in Deep Learning Beyond Continual Learning [58.107474025048866]
蓄積とは、以前に獲得した知識の喪失または劣化を指す。
フォッテッティングは、深層学習における様々な研究領域でよく見られる現象である。
論文 参考訳(メタデータ) (2023-07-16T16:27:58Z) - Self-Supervised Learning for Videos: A Survey [70.37277191524755]
自己教師型学習は、画像ドメインとビデオドメインの両方で有望である。
本稿では,ビデオ領域に着目した自己教師型学習における既存のアプローチについて概観する。
論文 参考訳(メタデータ) (2022-06-18T00:26:52Z) - Deep Apprenticeship Learning for Playing Games [0.0]
複雑な多次元タスクのエキスパート行動に基づく学習モデルの設計の可能性について検討する。
本稿では,強化学習における教師あり学習技術に関する従来の研究をもとに,新しい見習い学習手法を提案する。
本手法は,アタリゲームからの映像フレームに適用し,人工エージェントによるゲームプレイの指導を行う。
論文 参考訳(メタデータ) (2022-05-16T19:52:45Z) - Sharing to learn and learning to share; Fitting together Meta-Learning, Multi-Task Learning, and Transfer Learning: A meta review [4.462334751640166]
本稿では、これらの学習アルゴリズムを2つ組み合わせた研究についてレビューする。
文献から蓄積した知識に基づいて、汎用的なタスクに依存しないモデルに依存しない学習ネットワークを仮定する。
論文 参考訳(メタデータ) (2021-11-23T20:41:06Z) - Imitation Learning: Progress, Taxonomies and Opportunities [8.362917578701563]
模倣学習は、人間の行動の再現のために、人間の専門家のデモンストレーションや人工的に作られたエージェントから知識を抽出することを目的としている。
その成功は、ビデオゲーム、自律運転、ロボットシミュレーション、オブジェクト操作などの分野で実証されている。
ほとんどの訓練されたエージェントは、タスク固有の環境でうまく機能するように制限されている。
論文 参考訳(メタデータ) (2021-06-23T05:55:33Z) - Transfer Learning in Deep Reinforcement Learning: A Survey [64.36174156782333]
強化学習は、シーケンシャルな意思決定問題を解決するための学習パラダイムである。
近年、ディープニューラルネットワークの急速な発展により、強化学習の顕著な進歩が見られた。
転校学習は 強化学習が直面する様々な課題に 対処するために生まれました
論文 参考訳(メタデータ) (2020-09-16T18:38:54Z) - Curriculum Learning for Reinforcement Learning Domains: A Framework and
Survey [53.73359052511171]
強化学習(Reinforcement Learning, RL)は、エージェントが限られた環境フィードバックしか持たないシーケンシャルな意思決定タスクに対処するための一般的なパラダイムである。
本稿では、RLにおけるカリキュラム学習(CL)の枠組みを提案し、既存のCLメソッドを仮定、能力、目標の観点から調査・分類する。
論文 参考訳(メタデータ) (2020-03-10T20:41:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。