論文の概要: The case for delegated AI autonomy for Human AI teaming in healthcare
- arxiv url: http://arxiv.org/abs/2503.18778v1
- Date: Mon, 24 Mar 2025 15:26:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-25 16:32:17.341751
- Title: The case for delegated AI autonomy for Human AI teaming in healthcare
- Title(参考訳): 医療におけるヒューマンAIチームのためのAI自律委譲事例
- Authors: Yan Jia, Harriet Evans, Zoe Porter, Simon Graham, John McDermid, Tom Lawton, David Snead, Ibrahim Habli,
- Abstract要約: 本稿では、人工知能(AI)を医療に組み込むための高度なアプローチとして、自律的な意思決定支援を提案する。
このアプローチにより、AIアルゴリズムは、定義された委任基準に基づいて、患者の他のサブセットで支援的な役割を担いながら、患者のサブセットに対して自律的に行動することができる。
患者を安全に扱えるようにし、AIツールの制限に注意しながら臨床レビュー時間を短縮する可能性がある。
- 参考スコア(独自算出の注目度): 3.441725960809854
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this paper we propose an advanced approach to integrating artificial intelligence (AI) into healthcare: autonomous decision support. This approach allows the AI algorithm to act autonomously for a subset of patient cases whilst serving a supportive role in other subsets of patient cases based on defined delegation criteria. By leveraging the complementary strengths of both humans and AI, it aims to deliver greater overall performance than existing human-AI teaming models. It ensures safe handling of patient cases and potentially reduces clinician review time, whilst being mindful of AI tool limitations. After setting the approach within the context of current human-AI teaming models, we outline the delegation criteria and apply them to a specific AI-based tool used in histopathology. The potential impact of the approach and the regulatory requirements for its successful implementation are then discussed.
- Abstract(参考訳): 本稿では、人工知能(AI)を医療に組み込むための高度なアプローチとして、自律的な意思決定支援を提案する。
このアプローチにより、AIアルゴリズムは、定義された委任基準に基づいて、患者の他のサブセットで支援的な役割を担いながら、患者のサブセットに対して自律的に行動することができる。
人間とAIの相補的な強みを活用することで、既存の人間とAIのチームモデルよりも全体的なパフォーマンスを提供することを目指している。
患者を安全に扱えるようにし、AIツールの制限に注意しながら臨床レビュー時間を短縮する可能性がある。
現在の人間-AIチームモデルのコンテキスト内でアプローチを設定した後、デリゲート基準を概説し、病理学で使用される特定のAIベースのツールに適用する。
次に、アプローチの潜在的な影響と、その実装が成功するための規制要件について論じる。
関連論文リスト
- Over-Relying on Reliance: Towards Realistic Evaluations of AI-Based Clinical Decision Support [12.247046469627554]
私たちは、AIのタスクにおける信頼、信頼、受け入れ、パフォーマンスといった評価指標を超えて進むことを提唱します。
私たちはコミュニティに、AIが医療専門家にもたらす創発的な価値を計測する、生態学的に有効な、ドメインに適した研究環境を優先するよう呼びかけています。
論文 参考訳(メタデータ) (2025-04-10T03:28:56Z) - Explanation-Driven Interventions for Artificial Intelligence Model Customization: Empowering End-Users to Tailor Black-Box AI in Rhinocytology [3.4705962607086973]
本稿では、ブラックボックスAIモデルのための新しいエンドユーザー開発(EUD)アプローチを提案する。
提案手法はHuman-Centered AI(HCAI)を進化させ,人間と適応型ユーザカスタマイズ型AIシステムとの共生関係を促進する。
論文 参考訳(メタデータ) (2025-04-07T08:44:48Z) - Envisioning an AI-Enhanced Mental Health Ecosystem [1.534667887016089]
ピアサポート、セルフヘルプ介入、プロアクティブモニタリング、データ駆動インサイトなど、さまざまなAIアプリケーションについて検討する。
我々は、AIが人間のプロバイダを置き換えず、責任あるデプロイメントと評価を強調するハイブリッドエコシステムを提案する。
論文 参考訳(メタデータ) (2025-03-19T04:21:38Z) - How Performance Pressure Influences AI-Assisted Decision Making [57.53469908423318]
我々は、プレッシャーと説明可能なAI(XAI)技術がAIアドバイステイク行動とどのように相互作用するかを示す。
我々の結果は、圧力とXAIの異なる組み合わせで複雑な相互作用効果を示し、AIアドバイスの行動を改善するか、悪化させるかのどちらかを示す。
論文 参考訳(メタデータ) (2024-10-21T22:39:52Z) - Interactive Example-based Explanations to Improve Health Professionals' Onboarding with AI for Human-AI Collaborative Decision Making [2.964175945467257]
成長する研究は、人間とAIの協調的な意思決定において、ユーザの意思決定フェーズにおけるAI説明の使用について調査している。
以前の研究では、間違ったAI出力に対する過信の問題が見つかった。
医療従事者のAIによるオフボード化を改善するために,インタラクティブな例に基づく説明を提案する。
論文 参考訳(メタデータ) (2024-09-24T07:20:09Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Beyond Recommender: An Exploratory Study of the Effects of Different AI
Roles in AI-Assisted Decision Making [48.179458030691286]
Recommender、Analyzer、Devil's Advocateの3つのAIの役割について検討する。
以上の結果から,各役割のタスクパフォーマンス,信頼性の適切性,ユーザエクスペリエンスにおける長所と短所が明らかとなった。
これらの洞察は、異なる状況に応じて適応的な機能的役割を持つAIアシスタントを設計する上で、貴重な意味を提供する。
論文 参考訳(メタデータ) (2024-03-04T07:32:28Z) - Applying HCAI in developing effective human-AI teaming: A perspective
from human-AI joint cognitive systems [10.746728034149989]
研究と応用は、AIシステムを開発するための新しいパラダイムとして、HAT(Human-AI Teaming)を使用している。
我々は,人間とAIの協調認知システム(HAIJCS)の概念的枠組みについて詳しく検討する。
本稿では,HATを表現・実装するためのヒューマンAI共同認知システム(HAIJCS)の概念的枠組みを提案する。
論文 参考訳(メタデータ) (2023-07-08T06:26:38Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - Who Goes First? Influences of Human-AI Workflow on Decision Making in
Clinical Imaging [24.911186503082465]
本研究は, 放射線医学における診断セッション開始時と, 放射線科医の仮決定後のAI支援の効果について検討した。
その結果、AI推論をレビューする前に仮回答を登録するよう求められている参加者は、アドバイスが正確かどうかに関わらず、AIに同意する確率が低く、AIと意見の相違がある場合には、同僚の第二の意見を求める確率が低いことがわかった。
論文 参考訳(メタデータ) (2022-05-19T16:59:25Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。