論文の概要: Model Cards for AI Teammates: Comparing Human-AI Team Familiarization Methods for High-Stakes Environments
- arxiv url: http://arxiv.org/abs/2505.13773v1
- Date: Mon, 19 May 2025 23:19:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-21 14:49:52.569545
- Title: Model Cards for AI Teammates: Comparing Human-AI Team Familiarization Methods for High-Stakes Environments
- Title(参考訳): AIチームメイトのためのモデルカード:ハイテイク環境における人間-AIチームファミリアライズ手法の比較
- Authors: Ryan Bowers, Richard Agbeyibor, Jack Kolb, Karen Feigh,
- Abstract要約: 人工知能チームメイトと人間を親しむ3つの方法が研究された。
エージェントに関する最も重要な情報は、その決定アルゴリズムの詳細と、人間と比較して相対的な強度と弱さを含んでいた。
我々は、AIドキュメント、構造化されたインサイトトレーニング、探索的インタラクションを組み合わせた人間-AIチームの身近化手法を推奨する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We compare three methods of familiarizing a human with an artificial intelligence (AI) teammate ("agent") prior to operation in a collaborative, fast-paced intelligence, surveillance, and reconnaissance (ISR) environment. In a between-subjects user study (n=60), participants either read documentation about the agent, trained alongside the agent prior to the mission, or were given no familiarization. Results showed that the most valuable information about the agent included details of its decision-making algorithms and its relative strengths and weaknesses compared to the human. This information allowed the familiarization groups to form sophisticated team strategies more quickly than the control group. Documentation-based familiarization led to the fastest adoption of these strategies, but also biased participants towards risk-averse behavior that prevented high scores. Participants familiarized through direct interaction were able to infer much of the same information through observation, and were more willing to take risks and experiment with different control modes, but reported weaker understanding of the agent's internal processes. Significant differences were seen between individual participants' risk tolerance and methods of AI interaction, which should be considered when designing human-AI control interfaces. Based on our findings, we recommend a human-AI team familiarization method that combines AI documentation, structured in-situ training, and exploratory interaction.
- Abstract(参考訳): 我々は,人工知能(AI)チームメイト(エージェント)と人間を親しむ3つの方法を比較する。
対象間のユーザスタディ(n=60)では、参加者はエージェントに関するドキュメントを読み、ミッション前にエージェントと一緒に訓練するか、あるいは親しみを与えられなかった。
その結果、このエージェントに関する最も価値のある情報は、その決定アルゴリズムの詳細と、人間と比較して相対的な強度と弱点を含んでいた。
この情報により、慣れ親しんだグループは、コントロールグループよりもより早く高度なチーム戦略を構築できるようになりました。
ドキュメンテーションに基づく親しみやすさはこれらの戦略を最も早く採用することにつながったが、ハイスコアを妨げたリスク回避行動への参加者の偏見も引き起こした。
直接の相互作用を通じて親しまれた参加者は、観察を通して同じ情報の多くを推測することができ、リスクを取り、異なる制御モードで実験する意思があったが、エージェントの内部プロセスについてより弱い理解を報告した。
人間-AI制御インタフェースを設計する際に考慮すべき、個々の参加者のリスク許容性とAIインタラクションの方法との間に重要な違いが見られた。
我々の知見に基づいて、AIドキュメント、構造化されたインサイトトレーニング、探索的インタラクションを組み合わせた人間-AIチームの親しみやすさの手法を推奨する。
関連論文リスト
- Human-AI Collaboration: Trade-offs Between Performance and Preferences [5.172575113585139]
人間の行動に配慮したエージェントは、純粋にパフォーマンスを最大化するエージェントよりも好まれることを示す。
我々は、不平等-逆転効果が人間の選択の原動力であることの証拠を見つけ、人々がチームへの有意義な貢献を可能にする協力的なエージェントを好むことを示唆している。
論文 参考訳(メタデータ) (2025-02-28T23:50:14Z) - Let people fail! Exploring the influence of explainable virtual and robotic agents in learning-by-doing tasks [45.23431596135002]
本研究は,古典的対パートナー意識による説明が学習作業中の人間の行動とパフォーマンスに与える影響を比較検討した。
その結果, パートナー意識による説明は, 関係する人工エージェントの種類によって, 参加者に異なる影響を及ぼした。
論文 参考訳(メタデータ) (2024-11-15T13:22:04Z) - Unexploited Information Value in Human-AI Collaboration [23.353778024330165]
ヒューマンAIチームのパフォーマンスを改善する方法は、各エージェントがどのような情報や戦略を採用しているかを知らなければ、しばしば明確ではない。
本稿では,人間とAIの協調関係を分析するための統計的決定理論に基づくモデルを提案する。
論文 参考訳(メタデータ) (2024-11-03T01:34:45Z) - Pangu-Agent: A Fine-Tunable Generalist Agent with Structured Reasoning [50.47568731994238]
人工知能(AI)エージェント作成の鍵となる方法は強化学習(RL)である
本稿では,構造化推論をAIエージェントのポリシーに統合し,学習するための一般的なフレームワークモデルを提案する。
論文 参考訳(メタデータ) (2023-12-22T17:57:57Z) - Interactive Autonomous Navigation with Internal State Inference and
Interactivity Estimation [58.21683603243387]
本稿では,関係時間的推論を伴う3つの補助的タスクを提案し,それらを標準のディープラーニングフレームワークに統合する。
これらの補助的なタスクは、他の対話的エージェントの行動パターンを推測するための追加の監視信号を提供する。
提案手法は,標準評価指標の観点から,頑健かつ最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-11-27T18:57:42Z) - ProAgent: Building Proactive Cooperative Agents with Large Language
Models [89.53040828210945]
ProAgentは、大規模な言語モデルを利用してプロアクティブエージェントを生成する新しいフレームワークである。
ProAgentは現状を分析し、チームメイトの意図を観察から推測することができる。
ProAgentは高度なモジュール化と解釈可能性を示し、様々な調整シナリオに容易に統合できる。
論文 参考訳(メタデータ) (2023-08-22T10:36:56Z) - Assessing Human Interaction in Virtual Reality With Continually Learning
Prediction Agents Based on Reinforcement Learning Algorithms: A Pilot Study [6.076137037890219]
本研究では,人間と学習の継続する予測エージェントの相互作用が,エージェントの能力の発達とともにどのように発達するかを検討する。
我々は、強化学習(RL)アルゴリズムから学習した予測が人間の予測を増大させる仮想現実環境と時間ベースの予測タスクを開発する。
以上の結果から,人的信頼はエージェントとの早期の相互作用に影響され,信頼が戦略的行動に影響を及ぼす可能性が示唆された。
論文 参考訳(メタデータ) (2021-12-14T22:46:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。