論文の概要: NLPGym -- A toolkit for evaluating RL agents on Natural Language
Processing Tasks
- arxiv url: http://arxiv.org/abs/2011.08272v1
- Date: Mon, 16 Nov 2020 20:58:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-24 23:30:16.266225
- Title: NLPGym -- A toolkit for evaluating RL agents on Natural Language
Processing Tasks
- Title(参考訳): NLPGym -- 自然言語処理タスクにおけるRLエージェントの評価ツールキット
- Authors: Rajkumar Ramamurthy, Rafet Sifa and Christian Bauckhage
- Abstract要約: NLPGymはオープンソースのPythonツールキットで、標準のNLPタスクに対してインタラクティブなテキスト環境を提供する。
研究の基盤となるRLアルゴリズムの異なる6つのタスクについて実験を行った。
- 参考スコア(独自算出の注目度): 2.5760935151452067
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reinforcement learning (RL) has recently shown impressive performance in
complex game AI and robotics tasks. To a large extent, this is thanks to the
availability of simulated environments such as OpenAI Gym, Atari Learning
Environment, or Malmo which allow agents to learn complex tasks through
interaction with virtual environments. While RL is also increasingly applied to
natural language processing (NLP), there are no simulated textual environments
available for researchers to apply and consistently benchmark RL on NLP tasks.
With the work reported here, we therefore release NLPGym, an open-source Python
toolkit that provides interactive textual environments for standard NLP tasks
such as sequence tagging, multi-label classification, and question answering.
We also present experimental results for 6 tasks using different RL algorithms
which serve as baselines for further research. The toolkit is published at
https://github.com/rajcscw/nlp-gym
- Abstract(参考訳): 強化学習(RL)は、最近、複雑なゲームAIとロボティクスタスクで素晴らしいパフォーマンスを示した。
これは、openai gym、atari learning environment、malmoといったシミュレーション環境が利用可能であり、エージェントが仮想環境とのインタラクションを通じて複雑なタスクを学習できるためである。
RLはまた、自然言語処理(NLP)にもますます適用されているが、研究者がNLPタスクにRLを適用し、一貫したベンチマークを行うためのシミュレートされたテキスト環境は存在しない。
そこで我々はNLPGymをリリースした。NLPGymはオープンソースのPythonツールキットで、シーケンシャルタグ付け、複数ラベル分類、質問応答などの標準NLPタスクのためのインタラクティブなテキスト環境を提供する。
また,研究の基盤となるRLアルゴリズムの異なる6つのタスクについて実験を行った。
このツールキットはhttps://github.com/rajcscw/nlp-gymで公開されている。
関連論文リスト
- YAMLE: Yet Another Machine Learning Environment [4.985768723667417]
YAMLEはオープンソースのフレームワークで、機械学習(ML)モデルとメソッドによる迅速なプロトタイピングと実験を容易にする。
YAMLEにはコマンドラインインターフェースと、人気があり保守状態の良いPyTorchベースのライブラリとの統合が含まれている。
YAMLEの目標は、研究者や実践者が既存の実装を素早く構築し比較できる共有エコシステムに成長することだ。
論文 参考訳(メタデータ) (2024-02-09T09:34:36Z) - SERL: A Software Suite for Sample-Efficient Robotic Reinforcement
Learning [85.21378553454672]
筆者らは,報酬の計算と環境のリセットを行う手法とともに,効率的なオフ・ポリティクス・ディープ・RL法を含むライブラリを開発した。
我々は,PCBボードアセンブリ,ケーブルルーティング,オブジェクトの移動に関するポリシを,非常に効率的な学習を実現することができることを発見した。
これらの政策は完全な成功率またはほぼ完全な成功率、摂動下でさえ極端な堅牢性を実現し、突発的な堅牢性回復と修正行動を示す。
論文 参考訳(メタデータ) (2024-01-29T10:01:10Z) - Interactive Planning Using Large Language Models for Partially
Observable Robotics Tasks [54.60571399091711]
大きな言語モデル(LLM)は、オープン語彙タスクを実行するロボットエージェントを作成することで、驚くべき成果を上げている。
LLMを用いた部分的に観測可能なタスクのための対話型計画手法を提案する。
論文 参考訳(メタデータ) (2023-12-11T22:54:44Z) - Is Reinforcement Learning (Not) for Natural Language Processing?:
Benchmarks, Baselines, and Building Blocks for Natural Language Policy
Optimization [73.74371798168642]
我々は、強化学習による言語生成を最適化するためのオープンソースのモジュールライブラリRL4LMを紹介する。
次に、ターゲット文字列ではなく、報酬関数によって教師される6つの言語生成タスクのセットであるGRUEベンチマークを示す。
最後に,言語生成における動作空間を効果的に削減するNLPOアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-10-03T21:38:29Z) - pymdp: A Python library for active inference in discrete state spaces [52.85819390191516]
pymdpはPythonでアクティブな推論をシミュレートするオープンソースパッケージである。
我々は,POMDPによるアクティブな推論をシミュレートする,最初のオープンソースパッケージを提供する。
論文 参考訳(メタデータ) (2022-01-11T12:18:44Z) - Modular Procedural Generation for Voxel Maps [2.6811189633660613]
本稿では,Minecraft などのボクセル環境を対象とした PCG アルゴリズムの実装を容易にするオープンソースライブラリ mcg を提案する。
この図書館は人間と機械のチーム研究を念頭に設計されており、世代に「トップダウン」なアプローチを採っている。
このアプローチの利点は、仮想環境の迅速でスケーラブルで効率的な開発、セマンティックレベルで環境の統計を制御できる機能、およびプレイヤーのアクションにリアルタイムで応答して新しい環境を生成する機能です。
論文 参考訳(メタデータ) (2021-04-18T16:21:35Z) - TeachMyAgent: a Benchmark for Automatic Curriculum Learning in Deep RL [23.719833581321033]
複数のタスクに一般化できる自律エージェントのトレーニングは、Deep Reinforcement Learning (DRL)研究の重要なターゲットです。
DRLアルゴリズムの改善と並行して、ACL(Automatic Curriculum Learning)は、進化する能力にタスク選択を適用することで、教師アルゴリズムがDRLエージェントをより効率的に訓練する方法を研究する。
DRLエージェントを比較するために複数の標準ベンチマークが存在するが、現在ACLアルゴリズムにはそのようなものは存在しない。
論文 参考訳(メタデータ) (2021-03-17T17:59:22Z) - Discovering Reinforcement Learning Algorithms [53.72358280495428]
強化学習アルゴリズムは、いくつかのルールの1つに従ってエージェントのパラメータを更新する。
本稿では,更新ルール全体を検出するメタラーニング手法を提案する。
これには、一連の環境と対話することで、"何を予測するか"(例えば、値関数)と"どのように学習するか"の両方が含まれている。
論文 参考訳(メタデータ) (2020-07-17T07:38:39Z) - The NetHack Learning Environment [79.06395964379107]
本稿では、強化学習研究のための手続き的に生成されたローグのような環境であるNetHack Learning Environment(NLE)を紹介する。
我々は,NetHackが,探索,計画,技術習得,言語条件付きRLといった問題に対する長期的な研究を促進するのに十分複雑であると主張している。
我々は,分散されたDeep RLベースラインとランダムネットワーク蒸留探索を用いて,ゲームの初期段階における実験的な成功を示す。
論文 参考訳(メタデータ) (2020-06-24T14:12:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。