論文の概要: Over-Relying on Reliance: Towards Realistic Evaluations of AI-Based Clinical Decision Support
- arxiv url: http://arxiv.org/abs/2504.07423v1
- Date: Thu, 10 Apr 2025 03:28:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-18 21:38:12.880141
- Title: Over-Relying on Reliance: Towards Realistic Evaluations of AI-Based Clinical Decision Support
- Title(参考訳): 信頼度を過度に考慮する:AIに基づく臨床診断支援の現実的評価に向けて
- Authors: Venkatesh Sivaraman, Katelyn Morrison, Will Epperson, Adam Perer,
- Abstract要約: 私たちは、AIのタスクにおける信頼、信頼、受け入れ、パフォーマンスといった評価指標を超えて進むことを提唱します。
私たちはコミュニティに、AIが医療専門家にもたらす創発的な価値を計測する、生態学的に有効な、ドメインに適した研究環境を優先するよう呼びかけています。
- 参考スコア(独自算出の注目度): 12.247046469627554
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As AI-based clinical decision support (AI-CDS) is introduced in more and more aspects of healthcare services, HCI research plays an increasingly important role in designing for complementarity between AI and clinicians. However, current evaluations of AI-CDS often fail to capture when AI is and is not useful to clinicians. This position paper reflects on our work and influential AI-CDS literature to advocate for moving beyond evaluation metrics like Trust, Reliance, Acceptance, and Performance on the AI's task (what we term the "trap" of human-AI collaboration). Although these metrics can be meaningful in some simple scenarios, we argue that optimizing for them ignores important ways that AI falls short of clinical benefit, as well as ways that clinicians successfully use AI. As the fields of HCI and AI in healthcare develop new ways to design and evaluate CDS tools, we call on the community to prioritize ecologically valid, domain-appropriate study setups that measure the emergent forms of value that AI can bring to healthcare professionals.
- Abstract(参考訳): AIベースの臨床意思決定支援(AI-CDS)が医療サービスの多くの面で導入されるにつれて、HCI研究はAIと臨床医の相補性を設計する上で、ますます重要な役割を担っている。
しかし、AI-CDSの現在の評価は、AIが認識できておらず、臨床医には役に立たないことが多い。
このポジションペーパーは、AIのタスク(人間とAIのコラボレーションの"トラップ"と呼ばれるもの)における信頼、信頼、受け入れ、受け入れ、パフォーマンスといった評価指標を超えることを主張するために、私たちの仕事と影響力のあるAI-CDS文学を反映しています。
これらの指標はいくつかの単純なシナリオでは意味のあるものだが、これらのメトリクスを最適化することは、AIが臨床的利益に欠ける重要な方法や、臨床医がAIをうまく利用する方法を無視している、と私たちは主張する。
医療におけるHCIとAIの分野がCDSツールの設計と評価の新しい方法を開発する中で、私たちはコミュニティに、AIが医療専門家にもたらす価値の創発的な形を測定する、生態学的に有効な、ドメインに適した研究環境を優先するよう呼びかけます。
関連論文リスト
- The case for delegated AI autonomy for Human AI teaming in healthcare [3.441725960809854]
本稿では、人工知能(AI)を医療に組み込むための高度なアプローチとして、自律的な意思決定支援を提案する。
このアプローチにより、AIアルゴリズムは、定義された委任基準に基づいて、患者の他のサブセットで支援的な役割を担いながら、患者のサブセットに対して自律的に行動することができる。
患者を安全に扱えるようにし、AIツールの制限に注意しながら臨床レビュー時間を短縮する可能性がある。
論文 参考訳(メタデータ) (2025-03-24T15:26:54Z) - Towards Next-Generation Medical Agent: How o1 is Reshaping Decision-Making in Medical Scenarios [46.729092855387165]
本稿では,医療用AIエージェントのバックボーンLSMの選択について検討する。
我々の研究結果は、o1の診断精度と一貫性を高める能力を示し、よりスマートでより応答性の高いAIツールへの道を開いた。
論文 参考訳(メタデータ) (2024-11-16T18:19:53Z) - Clinicians' Voice: Fundamental Considerations for XAI in Healthcare [0.0]
臨床医との半構造化インタビューを行い,その考え,希望,懸念について考察した。
私たちのサンプルの臨床医は一般的に、臨床実習のためのAIベースのツールの開発について肯定的に考えます。
彼らは、これらがワークフローにどのように適合し、それが臨床医と患者の関係にどのように影響するかを懸念している。
論文 参考訳(メタデータ) (2024-11-07T16:47:06Z) - Contrasting Attitudes Towards Current and Future AI Applications for Computerised Interpretation of ECG: A Clinical Stakeholder Interview Study [2.570550251482137]
英国で臨床医に一連のインタビューを行った。
我々の研究は、AI、特に未来の「人間のような」コンピューティングの可能性を探る。
論文 参考訳(メタデータ) (2024-10-22T10:31:23Z) - How Performance Pressure Influences AI-Assisted Decision Making [57.53469908423318]
我々は、プレッシャーと説明可能なAI(XAI)技術がAIアドバイステイク行動とどのように相互作用するかを示す。
我々の結果は、圧力とXAIの異なる組み合わせで複雑な相互作用効果を示し、AIアドバイスの行動を改善するか、悪化させるかのどちらかを示す。
論文 参考訳(メタデータ) (2024-10-21T22:39:52Z) - Towards Clinical AI Fairness: Filling Gaps in the Puzzle [15.543248260582217]
このレビューでは、医療データと提供されたAIフェアネスソリューションの両方に関して、いくつかの欠陥を体系的に指摘する。
AI技術がますます活用されている多くの医療分野において、AIフェアネスの研究の欠如を強調している。
これらのギャップを埋めるために、我々のレビューは医療研究コミュニティとAI研究コミュニティの両方にとって実行可能な戦略を前進させます。
論文 参考訳(メタデータ) (2024-05-28T07:42:55Z) - Beyond Recommender: An Exploratory Study of the Effects of Different AI
Roles in AI-Assisted Decision Making [48.179458030691286]
Recommender、Analyzer、Devil's Advocateの3つのAIの役割について検討する。
以上の結果から,各役割のタスクパフォーマンス,信頼性の適切性,ユーザエクスペリエンスにおける長所と短所が明らかとなった。
これらの洞察は、異なる状況に応じて適応的な機能的役割を持つAIアシスタントを設計する上で、貴重な意味を提供する。
論文 参考訳(メタデータ) (2024-03-04T07:32:28Z) - Towards A Unified Utilitarian Ethics Framework for Healthcare Artificial
Intelligence [0.08192907805418582]
本研究では、異なる技術レベルでAIの実用性能に影響を与える主要な倫理的原則を特定することを試みる。
正義、プライバシー、偏見、規制の欠如、リスク、解釈可能性は倫理的AIを検討する上で最も重要な原則である。
本稿では,医療領域における倫理的AIを設計するための実用的倫理に基づく理論的枠組みを提案する。
論文 参考訳(メタデータ) (2023-09-26T02:10:58Z) - FUTURE-AI: International consensus guideline for trustworthy and deployable artificial intelligence in healthcare [73.78776682247187]
医療AIに関連する技術的、臨床的、倫理的、法的リスクに関する懸念が高まっている。
この研究は、Future-AIガイドラインを、医療における信頼できるAIツールの開発とデプロイを導くための最初の国際コンセンサスフレームワークとして説明している。
論文 参考訳(メタデータ) (2023-08-11T10:49:05Z) - A Conceptual Algorithm for Applying Ethical Principles of AI to Medical Practice [5.005928809654619]
AIを利用するツールは、複数のドメインにまたがる専門家レベルのパフォーマンスに、ますます一致するか、超えている。
これらのシステムは、人口、人種、社会経済の境界を越えたケア提供の格差を減らすことを約束している。
このようなAIツールの民主化は、ケアコストを削減し、リソース割り当てを最適化し、ケアの質を向上させる。
論文 参考訳(メタデータ) (2023-04-23T04:14:18Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。