論文の概要: NiceWebRL: a Python library for human subject experiments with reinforcement learning environments
- arxiv url: http://arxiv.org/abs/2508.15693v1
- Date: Thu, 21 Aug 2025 16:18:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-22 16:26:46.404779
- Title: NiceWebRL: a Python library for human subject experiments with reinforcement learning environments
- Title(参考訳): NiceWebRL:強化学習環境を用いた人体実験のためのPythonライブラリ
- Authors: Wilka Carvalho, Vikram Goddla, Ishaan Sinha, Hoon Shin, Kunal Jha,
- Abstract要約: NiceWebRLはPythonライブラリで、任意のJaxベースの環境をオンラインインターフェースに変換することができる。
我々は、その可能性を示す3つのケーススタディを紹介し、ヒューマンライクなAI、ヒューマンコンパチブルAI、ヒューマンアシスタンスAIの開発を支援する。
- 参考スコア(独自算出の注目度): 3.1182592568701777
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present NiceWebRL, a research tool that enables researchers to use machine reinforcement learning (RL) environments for online human subject experiments. NiceWebRL is a Python library that allows any Jax-based environment to be transformed into an online interface, supporting both single-agent and multi-agent environments. As such, NiceWebRL enables AI researchers to compare their algorithms to human performance, cognitive scientists to test ML algorithms as theories for human cognition, and multi-agent researchers to develop algorithms for human-AI collaboration. We showcase NiceWebRL with 3 case studies that demonstrate its potential to help develop Human-like AI, Human-compatible AI, and Human-assistive AI. In the first case study (Human-like AI), NiceWebRL enables the development of a novel RL model of cognition. Here, NiceWebRL facilitates testing this model against human participants in both a grid world and Craftax, a 2D Minecraft domain. In our second case study (Human-compatible AI), NiceWebRL enables the development of a novel multi-agent RL algorithm that can generalize to human partners in the Overcooked domain. Finally, in our third case study (Human-assistive AI), we show how NiceWebRL can allow researchers to study how an LLM can assist humans on complex tasks in XLand-Minigrid, an environment with millions of hierarchical tasks. The library is available at https://github.com/KempnerInstitute/nicewebrl.
- Abstract(参考訳): 我々は、研究者がオンライン人体実験にマシン強化学習(RL)環境を利用できる研究ツールであるNiceWebRLについて紹介する。
NiceWebRLはPythonライブラリで、任意のJaxベースの環境をオンラインインターフェースに変換し、単一エージェント環境とマルチエージェント環境の両方をサポートする。
そのため、AI研究者はアルゴリズムを人間のパフォーマンスと比較し、認知科学者は人間の認知の理論としてMLアルゴリズムをテストし、マルチエージェント研究者は人間とAIのコラボレーションのためのアルゴリズムを開発することができる。
我々はNiceWebRLを紹介し、その可能性を示す3つのケーススタディを紹介した。
最初のケーススタディ(Human-like AI)において、NiceWebRLは認知の新しいRLモデルの開発を可能にする。
ここでは、NiceWebRLはグリッドの世界と、2DマインクラフトドメインであるCraftaxの両方の参加者に対して、このモデルをテストするのに役立ちます。
第2のケーススタディ(Human互換AI)において、NiceWebRLはオーバークッキングドメインの人間パートナーに一般化可能な、新しいマルチエージェントRLアルゴリズムの開発を可能にする。
最後に、我々の3番目のケーススタディ(Human-assistive AI)では、NiceWebRLが研究者たちに、何百万もの階層的なタスクを持つ環境であるXLand-Minigridの複雑なタスクにおいて、LLMがどのように人間を支援できるかを研究できるようにする。
ライブラリはhttps://github.com/KempnerInstitute/nicewebrl.comから入手できる。
関連論文リスト
- SciMaster: Towards General-Purpose Scientific AI Agents, Part I. X-Master as Foundation: Can We Lead on Humanity's Last Exam? [51.112225746095746]
本稿では,人間研究者をエミュレートするツール強化推論エージェントであるX-Masterを紹介する。
XマスターズはHumanity's Last Examに32.1%のスコアで最新記録を樹立した。
論文 参考訳(メタデータ) (2025-07-07T17:50:52Z) - The Duality of Generative AI and Reinforcement Learning in Robotics: A Review [0.818052289014297]
生成型AIと強化学習(RL)は、情報フローを入力として取り、インテリジェントな振る舞いを生成するAIエージェントに何ができるかを再定義してきた。
本稿では,ロボット工学の発展のために,生成型AIモデルとRLの統合について検討する。
論文 参考訳(メタデータ) (2024-10-21T18:27:48Z) - Human-AI Collaboration in Real-World Complex Environment with
Reinforcement Learning [8.465957423148657]
人間からの学習は効果的であり、人間とAIのコラボレーションは、人間の制御された完全に自律的なAIエージェントよりも優れていることを示す。
我々は,AIエージェントを効果的に支援するためのユーザインタフェースを開発した。
論文 参考訳(メタデータ) (2023-12-23T04:27:24Z) - Humans are not Boltzmann Distributions: Challenges and Opportunities for
Modelling Human Feedback and Interaction in Reinforcement Learning [13.64577704565643]
これらのモデルは単純すぎるし、RLの研究者たちはアルゴリズムを設計し評価するために、より現実的な人間モデルを開発する必要がある、と我々は主張する。
本稿は、AIへのフィードバックの仕方や、より堅牢なループ内RLシステムの構築方法について、さまざまな分野からの研究を募集する。
論文 参考訳(メタデータ) (2022-06-27T13:58:51Z) - Towards Human-Level Bimanual Dexterous Manipulation with Reinforcement
Learning [73.92475751508452]
Bimanual Dexterous Hands Benchmark (Bi-DexHands) は、数十のバイマニュアル操作タスクと数千のターゲットオブジェクトを備えた2つのデキスタラスハンドを含むシミュレータである。
Bi-DexHandsのタスクは、認知科学の文献によると、人間の運動能力のレベルが異なるように設計されている。
論文 参考訳(メタデータ) (2022-06-17T11:09:06Z) - How to Train Your Robot with Deep Reinforcement Learning; Lessons We've
Learned [111.06812202454364]
本稿では,ロボット深部RLのケーススタディをいくつか紹介する。
深部RLにおける一般的な課題と,それらの課題について論じる。
また、他の卓越した課題についても概説し、その多くが現実世界のロボティクスの設定に特有のものである。
論文 参考訳(メタデータ) (2021-02-04T22:09:28Z) - Improving Reinforcement Learning with Human Assistance: An Argument for
Human Subject Studies with HIPPO Gym [21.4215863934377]
強化学習(Reinforcement Learning、RL)は、ゲームプレイ、ロボティクス制御、その他のシーケンシャルな意思決定タスクのための一般的な機械学習パラダイムである。
本稿では,オープンソースRLフレームワークであるHuman Input Parsing Platform for Openai Gym(HIPPO Gym)を紹介します。
論文 参考訳(メタデータ) (2021-02-02T12:56:02Z) - RL Unplugged: A Suite of Benchmarks for Offline Reinforcement Learning [108.9599280270704]
オフラインのRL手法を評価・比較するためのRL Unpluggedというベンチマークを提案する。
RL Unpluggedにはゲームやシミュレートされたモーター制御問題を含むさまざまな領域のデータが含まれている。
本論文で提示した全タスクのデータと,全アルゴリズムをオープンソースとして公開する。
論文 参考訳(メタデータ) (2020-06-24T17:14:51Z) - The NetHack Learning Environment [79.06395964379107]
本稿では、強化学習研究のための手続き的に生成されたローグのような環境であるNetHack Learning Environment(NLE)を紹介する。
我々は,NetHackが,探索,計画,技術習得,言語条件付きRLといった問題に対する長期的な研究を促進するのに十分複雑であると主張している。
我々は,分散されたDeep RLベースラインとランダムネットワーク蒸留探索を用いて,ゲームの初期段階における実験的な成功を示す。
論文 参考訳(メタデータ) (2020-06-24T14:12:56Z) - MushroomRL: Simplifying Reinforcement Learning Research [60.70556446270147]
MushroomRLはオープンソースのPythonライブラリで、強化学習(RL)実験の実装と実行を簡単にするために開発された。
他の利用可能なライブラリと比較して、MushroomRLは、新しいRL方法論の実装とテストの労力を最小限に抑えるために、包括的で柔軟なフレームワークを提供することを目的として作られた。
論文 参考訳(メタデータ) (2020-01-04T17:23:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。