論文の概要: Ad-Hoc Human-AI Coordination Challenge
- arxiv url: http://arxiv.org/abs/2506.21490v2
- Date: Sun, 29 Jun 2025 10:25:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 13:01:42.739529
- Title: Ad-Hoc Human-AI Coordination Challenge
- Title(参考訳): Ad-Hoc Human-AI Coordination Challenge
- Authors: Tin Dizdarević, Ravi Hammond, Tobias Gessler, Anisoara Calinescu, Jonathan Cook, Matteo Gallici, Andrei Lupu, Darius Muglich, Johannes Forkel, Jakob Nicolaus Foerster,
- Abstract要約: 本稿では,費用がかかる人的評価の制約を克服するために,Ad-Hoc Human-AI Coordination Challenge (AH2AC2)を導入する。
我々は、堅牢で安価で再現可能な人間のような評価パートナーとして機能する大規模な人的データセット上に、テキスト・ヒューマン・プロキシー・エージェントを開発する。
- 参考スコア(独自算出の注目度): 6.933020756939985
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Achieving seamless coordination between AI agents and humans is crucial for real-world applications, yet it remains a significant open challenge. Hanabi is a cooperative card game featuring imperfect information, constrained communication, theory of mind requirements, and coordinated action -- making it an ideal testbed for human-AI coordination. However, its use for human-AI interaction has been limited by the challenges of human evaluation. In this work, we introduce the Ad-Hoc Human-AI Coordination Challenge (AH2AC2) to overcome the constraints of costly and difficult-to-reproduce human evaluations. We develop \textit{human proxy agents} on a large-scale human dataset that serve as robust, cheap, and reproducible human-like evaluation partners in AH2AC2. To encourage the development of data-efficient methods, we open-source a dataset of 3,079 games, deliberately limiting the amount of available human gameplay data. We present baseline results for both two- and three- player Hanabi scenarios. To ensure fair evaluation, we host the proxy agents through a controlled evaluation system rather than releasing them publicly. The code is available at \href{https://github.com/FLAIROx/ah2ac2}{https://github.com/FLAIROx/ah2ac2}.
- Abstract(参考訳): AIエージェントと人間のシームレスな調整は、現実世界のアプリケーションには不可欠だが、それでも大きなオープンな課題だ。
ハナビ(はなび)は、不完全な情報、制約されたコミュニケーション、心の要求の理論、協調行動などを備えた協力型カードゲームである。
しかし,人間とAIのインタラクションには人的評価の課題が限られている。
本研究では,費用がかかる人的評価の制約を克服するために,Ad-Hoc Human-AI Coordination Challenge (AH2AC2)を導入する。
我々は、AH2AC2において、堅牢で安価で再現可能な人間ライクな評価パートナーとして機能する大規模な人的データセット上で、textit{human proxy agent} を開発する。
データ効率のよい手法の開発を促進するため,我々は3,079のゲームデータセットをオープンソースとして公開し,人間のゲームプレイデータの量を意図的に制限した。
2人・3人のハナビシナリオのベースライン結果を示す。
公正な評価を確保するため、我々はプロキシエージェントを公開ではなく、制御された評価システムを介してホストする。
コードは \href{https://github.com/FLAIROx/ah2ac2}{https://github.com/FLAIROx/ah2ac2} で公開されている。
関連論文リスト
- Problem Solving Through Human-AI Preference-Based Cooperation [74.39233146428492]
我々は,人間-AI共同構築フレームワークであるHAICo2を提案する。
我々は、HAICo2の形式化に向けて第一歩を踏み出し、それが直面する困難なオープンリサーチ問題について議論する。
論文 参考訳(メタデータ) (2024-08-14T11:06:57Z) - Tackling Cooperative Incompatibility for Zero-Shot Human-AI Coordination [36.33334853998621]
協調的オープンエンド・ラーニング(COLE)フレームワークを導入し,学習における協調的非互換性を解決する。
COLEは、グラフ理論の観点を用いて、2人のプレイヤーと協調ゲームにおけるオープンエンド目標を定式化し、各戦略の協調能力を評価し、特定する。
我々は,COLEが理論的および経験的分析から協調的不整合性を効果的に克服できることを示した。
論文 参考訳(メタデータ) (2023-06-05T16:51:38Z) - PECAN: Leveraging Policy Ensemble for Context-Aware Zero-Shot Human-AI
Coordination [52.991211077362586]
本研究では,集団におけるパートナーの多様性を高めるための政策アンサンブル手法を提案する。
そこで我々は,egoエージェントがパートナーの潜在的ポリシープリミティブを分析し,識別するためのコンテキスト認識手法を開発した。
このようにして、エゴエージェントは多様なパートナーとの共同作業において、より普遍的な協調行動を学ぶことができる。
論文 参考訳(メタデータ) (2023-01-16T12:14:58Z) - Human-AI Coordination via Human-Regularized Search and Learning [33.95649252941375]
我々は,ハナビベンチマークにおいて,実際の人間と協調する上で高い性能を達成する3段階のアルゴリズムを開発した。
まず、正規化された検索アルゴリズムと行動クローンを用いて、多様なスキルレベルをキャプチャする優れた人間モデルを作成します。
本手法は, 2人のエージェントと繰り返しプレイすることで, 行動的クローン化基準に対するバニラの最良の応答を達成できることが示唆された。
論文 参考訳(メタデータ) (2022-10-11T03:46:12Z) - Reinforcement Learning on Human Decision Models for Uniquely
Collaborative AI Teammates [0.0]
本研究は, 人プレイ平均得点16.5を達成し, 挑戦に勝ったエージェントの開発について詳述する。
受賞者の発達は、作者の花びでの意思決定を観察し、正確にモデル化し、その後、作者の行動クローンで訓練することであった。
エージェントは、まず人間の意思決定を模倣し、次にシミュレーションされた人間のボットスコアに繋がる人間のような戦略のバリエーションを探索することで、人間の補完的なプレイスタイルを発見した。
論文 参考訳(メタデータ) (2021-11-18T17:06:57Z) - Joint Mind Modeling for Explanation Generation in Complex Human-Robot
Collaborative Tasks [83.37025218216888]
本稿では,人間とロボットのコラボレーションにおいて,人間のようなコミュニケーションを実現するための新しい説明可能なAI(XAI)フレームワークを提案する。
ロボットは、人間のユーザの階層的なマインドモデルを構築し、コミュニケーションの一形態として自身のマインドの説明を生成する。
その結果,提案手法はロボットの協調動作性能とユーザ認識を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2020-07-24T23:35:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。