論文の概要: RLDS: an Ecosystem to Generate, Share and Use Datasets in Reinforcement
Learning
- arxiv url: http://arxiv.org/abs/2111.02767v1
- Date: Thu, 4 Nov 2021 11:48:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-05 15:28:38.162838
- Title: RLDS: an Ecosystem to Generate, Share and Use Datasets in Reinforcement
Learning
- Title(参考訳): rlds:強化学習でデータセットを生成、共有、使用するためのエコシステム
- Authors: Sabela Ramos, Sertan Girgin, L\'eonard Hussenot, Damien Vincent, Hanna
Yakubovich, Daniel Toyama, Anita Gergely, Piotr Stanczyk, Raphael Marinier,
Jeremiah Harmsen, Olivier Pietquin, Nikola Momchev
- Abstract要約: RLDSは、シークエンシャル意思決定(Sequential Decision Making, SDM)のコンテキストでデータを記録、再生、操作、注釈付け、共有するためのエコシステムである。
RLDSは既存の研究と容易に新しいデータセットを生成するだけでなく、新しい研究を加速する。
RLDSエコシステムは、情報を失うことなくデータセットを簡単に共有し、基盤となる元のフォーマットに依存しないようにする。
- 参考スコア(独自算出の注目度): 17.87592413742589
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We introduce RLDS (Reinforcement Learning Datasets), an ecosystem for
recording, replaying, manipulating, annotating and sharing data in the context
of Sequential Decision Making (SDM) including Reinforcement Learning (RL),
Learning from Demonstrations, Offline RL or Imitation Learning. RLDS enables
not only reproducibility of existing research and easy generation of new
datasets, but also accelerates novel research. By providing a standard and
lossless format of datasets it enables to quickly test new algorithms on a
wider range of tasks. The RLDS ecosystem makes it easy to share datasets
without any loss of information and to be agnostic to the underlying original
format when applying various data processing pipelines to large collections of
datasets. Besides, RLDS provides tools for collecting data generated by either
synthetic agents or humans, as well as for inspecting and manipulating the
collected data. Ultimately, integration with TFDS facilitates the sharing of RL
datasets with the research community.
- Abstract(参考訳): RLDS(Reinforcement Learning Datasets)は,Reinforcement Learning (RL), Learning from Demonstrations, Offline RL, Imitation Learningなどを含む逐次的意思決定(Sequential Decision Making, SDM)のコンテキストにおいて,データの記録,再生,操作,注釈,共有を行うエコシステムである。
RLDSは、既存の研究の再現性と、新しいデータセットを簡単に生成できるだけでなく、新しい研究を加速する。
データセットの標準でロスレスなフォーマットを提供することで、より幅広いタスクで新しいアルゴリズムをすばやくテストすることができる。
RLDSエコシステムは、大量のデータセットにさまざまなデータ処理パイプラインを適用する際に、情報を失うことなくデータセットを簡単に共有し、基盤となる元のフォーマットに依存しないようにする。
さらにRLDSは、合成エージェントまたは人間によって生成されたデータを集めるツールや、収集されたデータの検査と操作を行うツールを提供する。
最終的にtfdsとの統合は、研究コミュニティとrlデータセットの共有を促進する。
関連論文リスト
- A Survey on Data Synthesis and Augmentation for Large Language Models [35.59526251210408]
本稿では,大規模言語モデルのライフサイクルを通じてデータ生成手法をレビューし,要約する。
これらの手法が直面する現在の制約について考察し,今後の開発・研究の道筋について考察する。
論文 参考訳(メタデータ) (2024-10-16T16:12:39Z) - D5RL: Diverse Datasets for Data-Driven Deep Reinforcement Learning [99.33607114541861]
ロボット操作と移動環境の現実的なシミュレーションに焦点を当てたオフラインRLのための新しいベンチマークを提案する。
提案するベンチマークでは、状態ベースドメインと画像ベースドメインを対象とし、オフラインRLとオンライン微調整評価の両方をサポートしている。
論文 参考訳(メタデータ) (2024-08-15T22:27:00Z) - Behaviour Distillation [10.437472004180883]
我々は、専門家ポリシーのトレーニングに必要な情報を合成データセットに発見・凝縮することを目的とした行動蒸留を定式化する。
次に,Halucinating datasets with Evolution Strategies (HaDES)を紹介した。
これらのデータセットは分散から多種多様なアーキテクチャでトレーニングポリシーへと一般化されていることを示す。
また、下流タスク、すなわちゼロショット方式でマルチタスクエージェントを訓練するアプリケーションの実演を行う。
論文 参考訳(メタデータ) (2024-06-21T10:45:43Z) - Retrieval-Augmented Data Augmentation for Low-Resource Domain Tasks [66.87070857705994]
低リソース環境では、データ拡張に使用するシードデータサンプルの量は極めて少ない。
本稿では、他のデータセットから豊富なサンプルを組み込むことで、トレーニングデータを増強する新しい手法を提案する。
このアプローチは、生成されたデータが関連性だけでなく、限られたシードデータだけで達成できるものよりも多様であることを保証する。
論文 参考訳(メタデータ) (2024-02-21T02:45:46Z) - STAR: Boosting Low-Resource Information Extraction by Structure-to-Text
Data Generation with Large Language Models [56.27786433792638]
STARは大規模言語モデル(LLM)を利用してデータインスタンスを合成するデータ生成手法である。
我々は、初期データインスタンスを取得するための詳細なステップバイステップ命令を設計する。
実験の結果,STARが生成したデータは,低リソースイベント抽出および関係抽出タスクの性能を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2023-05-24T12:15:19Z) - The Challenges of Exploration for Offline Reinforcement Learning [8.484491887821473]
本稿では,情報的経験の収集と最適な行動の推測という,強化学習の2つのプロセスについて考察する。
データ収集のタスクに依存しない設定は、タスクが優先順位を分かっていないが、特に興味がある。
我々は、この分離されたフレームワークを使用して、探索に関する直感と効果的なオフラインRLのためのデータ前提条件を強化する。
論文 参考訳(メタデータ) (2022-01-27T23:59:56Z) - RL Unplugged: A Suite of Benchmarks for Offline Reinforcement Learning [108.9599280270704]
オフラインのRL手法を評価・比較するためのRL Unpluggedというベンチマークを提案する。
RL Unpluggedにはゲームやシミュレートされたモーター制御問題を含むさまざまな領域のデータが含まれている。
本論文で提示した全タスクのデータと,全アルゴリズムをオープンソースとして公開する。
論文 参考訳(メタデータ) (2020-06-24T17:14:51Z) - D4RL: Datasets for Deep Data-Driven Reinforcement Learning [119.49182500071288]
オフラインRLのリアルタイムアプリケーションに関連するデータセットのキープロパティによってガイドされるオフライン設定用に特別に設計されたベンチマークを紹介する。
部分的に訓練されたRLエージェントによって収集された単純なベンチマークタスクやデータを超えて、既存のアルゴリズムの重要かつ未承認な欠陥を明らかにする。
論文 参考訳(メタデータ) (2020-04-15T17:18:19Z) - DeGAN : Data-Enriching GAN for Retrieving Representative Samples from a
Trained Classifier [58.979104709647295]
我々は、トレーニングされたネットワークの将来の学習タスクのために、利用可能なデータの豊富さと関連するデータの欠如の間のギャップを埋める。
利用可能なデータは、元のトレーニングデータセットまたは関連するドメインデータセットの不均衡なサブセットである可能性があるため、代表サンプルを検索するために使用します。
関連ドメインからのデータを活用して最先端のパフォーマンスを実現することを実証する。
論文 参考訳(メタデータ) (2019-12-27T02:05:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。