論文の概要: Bidirectional human-AI collaboration in brain tumour assessments improves both expert human and AI agent performance
- arxiv url: http://arxiv.org/abs/2512.19707v1
- Date: Sat, 13 Dec 2025 18:56:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-29 00:37:57.083247
- Title: Bidirectional human-AI collaboration in brain tumour assessments improves both expert human and AI agent performance
- Title(参考訳): 脳腫瘍評価における双方向のヒトとAIのコラボレーションは、専門家のヒトとAIエージェントのパフォーマンスを改善する
- Authors: James K Ruffle, Samia Mohinta, Guilherme Pombo, Asthik Biswas, Alan Campbell, Indran Davagnanam, David Doig, Ahmed Hamman, Harpreet Hyare, Farrah Jabeen, Emma Lim, Dermot Mallon, Stephanie Owen, Sophie Wilkinson, Sebastian Brandner, Parashkev Nachev,
- Abstract要約: 人間とAIのパートナーシップは、AIが支援する放射線学者だけでなく、放射線学者が支援するAIエージェントの精度とメタ認知能力を向上させる。
我々の研究は、医療におけるAIの最大の価値は、人間の知性を置き換えることではなく、それを日常的に活用し増幅するAIエージェントから生まれることを示唆している。
- 参考スコア(独自算出の注目度): 0.617129457697534
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The benefits of artificial intelligence (AI) human partnerships-evaluating how AI agents enhance expert human performance-are increasingly studied. Though rarely evaluated in healthcare, an inverse approach is possible: AI benefiting from the support of an expert human agent. Here, we investigate both human-AI clinical partnership paradigms in the magnetic resonance imaging-guided characterisation of patients with brain tumours. We reveal that human-AI partnerships improve accuracy and metacognitive ability not only for radiologists supported by AI, but also for AI agents supported by radiologists. Moreover, the greatest patient benefit was evident with an AI agent supported by a human one. Synergistic improvements in agent accuracy, metacognitive performance, and inter-rater agreement suggest that AI can create more capable, confident, and consistent clinical agents, whether human or model-based. Our work suggests that the maximal value of AI in healthcare could emerge not from replacing human intelligence, but from AI agents that routinely leverage and amplify it.
- Abstract(参考訳): 人工知能(AI)の利点は、AIエージェントが人間のパフォーマンスを高める方法を評価することにある。
医療において評価されることはめったにないが、逆のアプローチが可能である。
本稿では,脳腫瘍患者のMRI誘導的特徴化におけるヒト-AI臨床連携のパラダイムについて検討する。
我々は,ヒトとAIのパートナーシップによって,AIが支援する放射線科医だけでなく,放射線科医が支援するAIエージェントの精度とメタ認知能力が向上することを明らかにする。
さらに、患者の最大の利益は、人間によって支えられたAIエージェントで明らかでした。
エージェントの正確性、メタ認知的パフォーマンス、およびラター間の合意の相乗的改善は、AIがより有能で自信があり、一貫性のある臨床エージェントを、人間でもモデルベースでも作成できることを示唆している。
我々の研究は、医療におけるAIの最大の価値は、人間の知性を置き換えることではなく、それを日常的に活用し増幅するAIエージェントから生まれることを示唆している。
関連論文リスト
- Explainable AI as a Double-Edged Sword in Dermatology: The Impact on Clinicians versus The Public [46.86429592892395]
説明可能なAI(XAI)は、AI意思決定の洞察を提供することによって、この問題に対処する。
フェアネスに基づく診断AIモデルと異なるXAI説明を組み合わせた2つの大規模実験の結果を報告する。
論文 参考訳(メタデータ) (2025-12-14T00:06:06Z) - Can Domain Experts Rely on AI Appropriately? A Case Study on AI-Assisted Prostate Cancer MRI Diagnosis [19.73932120146401]
MRI画像を用いた前立腺癌診断において,放射線科医と深く連携する。
インターフェースを開発し、AIアシストとパフォーマンスフィードバックがドメインエキスパートの意思決定をどのように形作るかを研究する2つの実験を行う。
論文 参考訳(メタデータ) (2025-02-03T18:59:38Z) - Unexploited Information Value in Human-AI Collaboration [23.353778024330165]
ヒューマンAIチームのパフォーマンスを改善する方法は、各エージェントがどのような情報や戦略を採用しているかを知らなければ、しばしば明確ではない。
本稿では,人間とAIの協調関係を分析するための統計的決定理論に基づくモデルを提案する。
論文 参考訳(メタデータ) (2024-11-03T01:34:45Z) - How Performance Pressure Influences AI-Assisted Decision Making [52.997197698288936]
我々は、プレッシャーと説明可能なAI(XAI)技術がAIアドバイステイク行動とどのように相互作用するかを示す。
我々の結果は、圧力とXAIの異なる組み合わせで複雑な相互作用効果を示し、AIアドバイスの行動を改善するか、悪化させるかのどちらかを示す。
論文 参考訳(メタデータ) (2024-10-21T22:39:52Z) - BO-Muse: A human expert and AI teaming framework for accelerated
experimental design [58.61002520273518]
我々のアルゴリズムは、人間の専門家が実験プロセスでリードすることを可能にする。
我々のアルゴリズムは、AIや人間よりも高速に、サブ線形に収束することを示す。
論文 参考訳(メタデータ) (2023-03-03T02:56:05Z) - On the Effect of Information Asymmetry in Human-AI Teams [0.0]
我々は、人間とAIの相補的ポテンシャルの存在に焦点を当てる。
具体的には、情報非対称性を相補性ポテンシャルの必須源とみなす。
オンライン実験を行うことで、人間がそのような文脈情報を使ってAIの決定を調整できることを実証する。
論文 参考訳(メタデータ) (2022-05-03T13:02:50Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。