論文の概要: The case for delegated AI autonomy for Human AI teaming in healthcare
- arxiv url: http://arxiv.org/abs/2503.18778v1
- Date: Mon, 24 Mar 2025 15:26:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-25 14:37:22.197776
- Title: The case for delegated AI autonomy for Human AI teaming in healthcare
- Title(参考訳): 医療におけるヒューマンAIチームのためのAI自律委譲事例
- Authors: Yan Jia, Harriet Evans, Zoe Porter, Simon Graham, John McDermid, Tom Lawton, David Snead, Ibrahim Habli,
- Abstract要約: 本稿では、人工知能(AI)を医療に組み込むための高度なアプローチとして、自律的な意思決定支援を提案する。
このアプローチにより、AIアルゴリズムは、定義された委任基準に基づいて、患者の他のサブセットで支援的な役割を担いながら、患者のサブセットに対して自律的に行動することができる。
患者を安全に扱えるようにし、AIツールの制限に注意しながら臨床レビュー時間を短縮する可能性がある。
- 参考スコア(独自算出の注目度): 3.441725960809854
- License:
- Abstract: In this paper we propose an advanced approach to integrating artificial intelligence (AI) into healthcare: autonomous decision support. This approach allows the AI algorithm to act autonomously for a subset of patient cases whilst serving a supportive role in other subsets of patient cases based on defined delegation criteria. By leveraging the complementary strengths of both humans and AI, it aims to deliver greater overall performance than existing human-AI teaming models. It ensures safe handling of patient cases and potentially reduces clinician review time, whilst being mindful of AI tool limitations. After setting the approach within the context of current human-AI teaming models, we outline the delegation criteria and apply them to a specific AI-based tool used in histopathology. The potential impact of the approach and the regulatory requirements for its successful implementation are then discussed.
- Abstract(参考訳): 本稿では、人工知能(AI)を医療に組み込むための高度なアプローチとして、自律的な意思決定支援を提案する。
このアプローチにより、AIアルゴリズムは、定義された委任基準に基づいて、患者の他のサブセットで支援的な役割を担いながら、患者のサブセットに対して自律的に行動することができる。
人間とAIの相補的な強みを活用することで、既存の人間とAIのチームモデルよりも全体的なパフォーマンスを提供することを目指している。
患者を安全に扱えるようにし、AIツールの制限に注意しながら臨床レビュー時間を短縮する可能性がある。
現在の人間-AIチームモデルのコンテキスト内でアプローチを設定した後、デリゲート基準を概説し、病理学で使用される特定のAIベースのツールに適用する。
次に、アプローチの潜在的な影響と、その実装が成功するための規制要件について論じる。
関連論文リスト
- A Capability Approach to AI Ethics [0.0]
能力アプローチによるAI倫理の概念化は、規律としてのAI倫理に2つの大きな利点があることを示す。
まず、AIツールの倫理的側面を明らかにするのに役立つ。
第2に、AIツールの設計において倫理的配慮を実装するためのガイダンスを提供する。
論文 参考訳(メタデータ) (2025-01-10T12:08:21Z) - Interactive Example-based Explanations to Improve Health Professionals' Onboarding with AI for Human-AI Collaborative Decision Making [2.964175945467257]
成長する研究は、人間とAIの協調的な意思決定において、ユーザの意思決定フェーズにおけるAI説明の使用について調査している。
以前の研究では、間違ったAI出力に対する過信の問題が見つかった。
医療従事者のAIによるオフボード化を改善するために,インタラクティブな例に基づく説明を提案する。
論文 参考訳(メタデータ) (2024-09-24T07:20:09Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - The Potential and Perils of Generative Artificial Intelligence for Quality Improvement and Patient Safety [27.753117791280857]
ジェネレーティブ人工知能(GenAI)は、患者の医療の質と安全性を高める自動化を通じて、医療を改善する可能性がある。
我々は、医療におけるGenAIの即時適用は、明確に定義された、低いリスク、高い価値、狭いアプリケーションを通して行われると仮定する。
我々はこれを、臨床成績を改善するエンドツーエンドの臨床意思決定のための汎用AIモデルと対比する。
論文 参考訳(メタデータ) (2024-06-23T15:01:11Z) - Towards Human-AI Deliberation: Design and Evaluation of LLM-Empowered Deliberative AI for AI-Assisted Decision-Making [47.33241893184721]
AIによる意思決定において、人間はしばしばAIの提案を受動的にレビューし、それを受け入れるか拒否するかを決定する。
意思決定における人間-AIの意見の対立に関する議論と人間のリフレクションを促進する新しい枠組みであるHuman-AI Deliberationを提案する。
人間の熟考の理論に基づいて、この枠組みは人間とAIを次元レベルの意見の引用、熟考的議論、意思決定の更新に携わる。
論文 参考訳(メタデータ) (2024-03-25T14:34:06Z) - Beyond Recommender: An Exploratory Study of the Effects of Different AI
Roles in AI-Assisted Decision Making [48.179458030691286]
Recommender、Analyzer、Devil's Advocateの3つのAIの役割について検討する。
以上の結果から,各役割のタスクパフォーマンス,信頼性の適切性,ユーザエクスペリエンスにおける長所と短所が明らかとなった。
これらの洞察は、異なる状況に応じて適応的な機能的役割を持つAIアシスタントを設計する上で、貴重な意味を提供する。
論文 参考訳(メタデータ) (2024-03-04T07:32:28Z) - Applying HCAI in developing effective human-AI teaming: A perspective
from human-AI joint cognitive systems [10.746728034149989]
研究と応用は、AIシステムを開発するための新しいパラダイムとして、HAT(Human-AI Teaming)を使用している。
我々は,人間とAIの協調認知システム(HAIJCS)の概念的枠組みについて詳しく検討する。
本稿では,HATを表現・実装するためのヒューマンAI共同認知システム(HAIJCS)の概念的枠組みを提案する。
論文 参考訳(メタデータ) (2023-07-08T06:26:38Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - Who Goes First? Influences of Human-AI Workflow on Decision Making in
Clinical Imaging [24.911186503082465]
本研究は, 放射線医学における診断セッション開始時と, 放射線科医の仮決定後のAI支援の効果について検討した。
その結果、AI推論をレビューする前に仮回答を登録するよう求められている参加者は、アドバイスが正確かどうかに関わらず、AIに同意する確率が低く、AIと意見の相違がある場合には、同僚の第二の意見を求める確率が低いことがわかった。
論文 参考訳(メタデータ) (2022-05-19T16:59:25Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。