論文の概要: Socratic: Enhancing Human Teamwork via AI-enabled Coaching
- arxiv url: http://arxiv.org/abs/2502.17643v1
- Date: Mon, 24 Feb 2025 20:45:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-26 15:19:02.654945
- Title: Socratic: Enhancing Human Teamwork via AI-enabled Coaching
- Title(参考訳): Socratic: AIによるコーチングによるチームワークの強化
- Authors: Sangwon Seo, Bing Han, Rayan E. Harari, Roger D. Dias, Marco A. Zenati, Eduardo Salas, Vaibhav Unhelkar,
- Abstract要約: Socraticは、タスク実行中にリアルタイムガイダンスを提供することで、人間のコーチを補完する新しいAIシステムである。
我々は,2つの人体実験を通じてソクラテスを検証した。
その結果、システムは最小限の介入でチームパフォーマンスを著しく向上させることがわかった。
- 参考スコア(独自算出の注目度): 6.231141663160322
- License:
- Abstract: Coaches are vital for effective collaboration, but cost and resource constraints often limit their availability during real-world tasks. This limitation poses serious challenges in life-critical domains that rely on effective teamwork, such as healthcare and disaster response. To address this gap, we propose and realize an innovative application of AI: task-time team coaching. Specifically, we introduce Socratic, a novel AI system that complements human coaches by providing real-time guidance during task execution. Socratic monitors team behavior, detects misalignments in team members' shared understanding, and delivers automated interventions to improve team performance. We validated Socratic through two human subject experiments involving dyadic collaboration. The results demonstrate that the system significantly enhances team performance with minimal interventions. Participants also perceived Socratic as helpful and trustworthy, supporting its potential for adoption. Our findings also suggest promising directions both for AI research and its practical applications to enhance human teamwork.
- Abstract(参考訳): コーチは効果的なコラボレーションには不可欠ですが、コストとリソースの制約によって、現実のタスクにおける可用性が制限されることが少なくありません。
この制限は、医療や災害対応といった効果的なチームワークに依存しているライフクリティカルなドメインにおいて深刻な課題を引き起こします。
このギャップに対処するために、私たちはAIの革新的な応用であるタスクタイムチームのコーチングを提案し、実現しました。
具体的には、タスク実行中にリアルタイムガイダンスを提供することで、人間のコーチを補完する新しいAIシステムであるSocraticを紹介する。
Socraticはチームの振る舞いを監視し、チームメンバの共通理解の誤りを検出し、チームのパフォーマンスを改善するための自動化された介入を提供する。
我々は,2つの人体実験を通じてソクラテスを検証した。
その結果、システムは最小限の介入でチームパフォーマンスを著しく向上させることがわかった。
参加者はソクラテスを有益で信頼できるものと認識し、その採用の可能性を支持した。
我々の研究結果は、AI研究と人間のチームワークを強化する実践的応用の両方に有望な方向性を示唆している。
関連論文リスト
- Comparing Zealous and Restrained AI Recommendations in a Real-World Human-AI Collaboration Task [11.040918613968854]
正確さとリコールのトレードオフを慎重に活用することで、チームのパフォーマンスが大幅に向上する、と私たちは主張する。
我々は、a)AIアシストなし、b)高精度な「制限された」AI、c)3,466時間以上のアノテーション作業で、78のプロのアノテータのパフォーマンスを分析する。
論文 参考訳(メタデータ) (2024-10-06T23:19:19Z) - TeamLoRA: Boosting Low-Rank Adaptation with Expert Collaboration and Competition [61.91764883512776]
我々は,専門家のためのコラボレーション・コンペティション・モジュールからなる,革新的なPEFT手法であるTeamLoRAを紹介する。
そうすることで、TeamLoRAは専門家を"チーム"として内部のコラボレーションや競争に結び付け、マルチタスク学習のためのより高速で正確なPEFTパラダイムを可能にします。
論文 参考訳(メタデータ) (2024-08-19T09:58:53Z) - Collective Attention in Human-AI Teams [4.312803416185713]
AIアシスタントの存在は、共有認知の様々な側面を調節することによって、チームの集団的注意に大きく影響する。
本研究は,チーム設定におけるAIシステムがチームパフォーマンスに影響を及ぼす中心的なメカニズムとして,集団的注意を喚起することによって,人間とAIのコラボレーション研究に寄与する。
論文 参考訳(メタデータ) (2024-07-03T13:46:00Z) - Optimising Human-AI Collaboration by Learning Convincing Explanations [62.81395661556852]
本研究では,人間による意思決定によって安全を保ちながら協調的なシステムを構築する手法を提案する。
Ardentは、説明のための個人の好みに適応することで、効率的で効果的な意思決定を可能にする。
論文 参考訳(メタデータ) (2023-11-13T16:00:16Z) - Improving Grounded Language Understanding in a Collaborative Environment
by Interacting with Agents Through Help Feedback [42.19685958922537]
我々は、人間とAIのコラボレーションは対話的であり、人間がAIエージェントの作業を監視し、エージェントが理解し活用できるフィードバックを提供するべきだと論じている。
本研究では, IGLUコンペティションによって定義された課題である, マイニングクラフトのような世界における対話型言語理解タスクを用いて, これらの方向を探索する。
論文 参考訳(メタデータ) (2023-04-21T05:37:59Z) - Automated Task-Time Interventions to Improve Teamwork using Imitation
Learning [5.423490734916741]
私たちは、チームメンバー間の調整を改善するための自動化された介入アプローチTICを提示します。
我々はまず、過去のタスク実行データからチームの振る舞いの生成モデルを学ぶ。
次に、学習した生成モデルとチームのタスク目標(共有報酬)を使用して、実行時の介入をアルゴリズム的に生成する。
論文 参考訳(メタデータ) (2023-03-01T11:09:06Z) - Knowing About Knowing: An Illusion of Human Competence Can Hinder
Appropriate Reliance on AI Systems [13.484359389266864]
本稿では、Dunning-Kruger Effect(DKE)がAIシステムへの適切な依存を妨げているかどうかを論じる。
DKEは、能力の低い個人が自身のスキルやパフォーマンスを過大評価しているため、メタ認知バイアスである。
その結果、パフォーマンスを過大評価する参加者は、AIシステムへの信頼度が低い傾向にあることがわかった。
論文 参考訳(メタデータ) (2023-01-25T14:26:10Z) - Human Decision Makings on Curriculum Reinforcement Learning with
Difficulty Adjustment [52.07473934146584]
我々は,カリキュラム強化学習結果を,人的意思決定プロセスから学ぶことで,難しすぎず,難しすぎるような望ましいパフォーマンスレベルに導く。
本システムは非常に並列化可能であり,大規模強化学習アプリケーションの訓練が可能となる。
強化学習性能は、人間の所望の難易度と同期してうまく調整できることが示される。
論文 参考訳(メタデータ) (2022-08-04T23:53:51Z) - Enabling AI and Robotic Coaches for Physical Rehabilitation Therapy:
Iterative Design and Evaluation with Therapists and Post-Stroke Survivors [66.07833535962762]
人工知能(AI)とロボットコーチは、社会的相互作用を通じてリハビリテーション運動における患者の関与を改善することを約束する。
これまでの研究は、AIやロボットコーチの運動を自動的に監視する可能性を探ったが、デプロイは依然として難しい課題だ。
我々は,AIとロボットコーチが患者の運動をどのように操作し,指導するかに関する詳細な設計仕様を提示する。
論文 参考訳(メタデータ) (2021-06-15T22:06:39Z) - Towards an AI assistant for human grid operators [59.535699822923]
電力システムは、デジタル時代の運用がより複雑になっている。
人間のオペレーターがより多くの情報を扱う必要があるため、リアルタイムの意思決定はますます困難になっている。
より統一的でインタラクティブなフレームワークの下で、ヒューマンマシンインターフェースを再考する必要がある。
論文 参考訳(メタデータ) (2020-12-03T16:12:58Z) - Is the Most Accurate AI the Best Teammate? Optimizing AI for Teamwork [54.309495231017344]
AIシステムは人間中心の方法でトレーニングされ、チームのパフォーマンスに直接最適化されるべきである、と私たちは主張する。
我々は,AIレコメンデーションを受け入れるか,あるいはタスク自体を解決するかを選択する,特定のタイプのAIチームを提案する。
実世界の高精度データセット上での線形モデルと非線形モデルによる実験は、AIが最も正確であることは、最高のチームパフォーマンスに繋がらないことを示している。
論文 参考訳(メタデータ) (2020-04-27T19:06:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。