論文の概要: Who Goes First? Influences of Human-AI Workflow on Decision Making in
Clinical Imaging
- arxiv url: http://arxiv.org/abs/2205.09696v1
- Date: Thu, 19 May 2022 16:59:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-20 14:44:56.506462
- Title: Who Goes First? Influences of Human-AI Workflow on Decision Making in
Clinical Imaging
- Title(参考訳): 誰が先に行く?
臨床画像におけるヒューマンAIワークフローが意思決定に及ぼす影響
- Authors: Riccardo Fogliato, Shreya Chappidi, Matthew Lungren, Michael Fitzke,
Mark Parkinson, Diane Wilson, Paul Fisher, Eric Horvitz, Kori Inkpen, Besmira
Nushi
- Abstract要約: 本研究は, 放射線医学における診断セッション開始時と, 放射線科医の仮決定後のAI支援の効果について検討した。
その結果、AI推論をレビューする前に仮回答を登録するよう求められている参加者は、アドバイスが正確かどうかに関わらず、AIに同意する確率が低く、AIと意見の相違がある場合には、同僚の第二の意見を求める確率が低いことがわかった。
- 参考スコア(独自算出の注目度): 24.911186503082465
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Details of the designs and mechanisms in support of human-AI collaboration
must be considered in the real-world fielding of AI technologies. A critical
aspect of interaction design for AI-assisted human decision making are policies
about the display and sequencing of AI inferences within larger decision-making
workflows. We have a poor understanding of the influences of making AI
inferences available before versus after human review of a diagnostic task at
hand. We explore the effects of providing AI assistance at the start of a
diagnostic session in radiology versus after the radiologist has made a
provisional decision. We conducted a user study where 19 veterinary
radiologists identified radiographic findings present in patients' X-ray
images, with the aid of an AI tool. We employed two workflow configurations to
analyze (i) anchoring effects, (ii) human-AI team diagnostic performance and
agreement, (iii) time spent and confidence in decision making, and (iv)
perceived usefulness of the AI. We found that participants who are asked to
register provisional responses in advance of reviewing AI inferences are less
likely to agree with the AI regardless of whether the advice is accurate and,
in instances of disagreement with the AI, are less likely to seek the second
opinion of a colleague. These participants also reported the AI advice to be
less useful. Surprisingly, requiring provisional decisions on cases in advance
of the display of AI inferences did not lengthen the time participants spent on
the task. The study provides generalizable and actionable insights for the
deployment of clinical AI tools in human-in-the-loop systems and introduces a
methodology for studying alternative designs for human-AI collaboration. We
make our experimental platform available as open source to facilitate future
research on the influence of alternate designs on human-AI workflows.
- Abstract(参考訳): 人間とAIのコラボレーションを支援するための設計とメカニズムの詳細は、AI技術の現実のフィールド化において考慮する必要がある。
AI支援による意思決定のためのインタラクション設計の重要な側面は、より大きな意思決定ワークフロー内のAI推論の表示とシークエンシングに関するポリシーである。
診断タスクの人間によるレビューの前後で、AI推論を利用可能にすることの影響について、理解が不十分です。
放射線医学における診断セッションの開始時にAI支援を提供することの効果を,放射線科医が仮決定をした後に比較検討する。
医用放射線科医19名を対象に, 患者のx線画像中のx線像をaiツールを用いて同定した。
2つのワークフロー構成を使って分析しました
(i)アンカー効果
(ii)人間-aiチームによる診断成績と合意
三 意思決定に費やした時間及び信頼性
(4)AIの有用性が認められた。
その結果、AI推論をレビューする前に仮回答を登録するよう求められている参加者は、アドバイスが正確かどうかに関わらず、AIに同意する確率が低く、AIと意見の相違がある場合には、同僚の第二の意見を求める確率が低いことがわかった。
これらの参加者はまた、AIアドバイスがあまり役に立たないと報告した。
驚いたことに、ai推論の表示に先立って、ケースの暫定的な決定を要求することは、参加者がタスクに費やす時間を延ばすことはなかった。
この研究は、ヒト・イン・ザ・ループシステムに臨床AIツールを配置するための汎用的で実用的な洞察を提供し、人間とAIのコラボレーションのための代替設計を研究するための方法論を紹介している。
実験プラットフォームをオープンソースとして公開し,代替設計がヒューマン-aiワークフローに与える影響に関する今後の研究を支援します。
関連論文リスト
- Interactive Example-based Explanations to Improve Health Professionals' Onboarding with AI for Human-AI Collaborative Decision Making [2.964175945467257]
成長する研究は、人間とAIの協調的な意思決定において、ユーザの意思決定フェーズにおけるAI説明の使用について調査している。
以前の研究では、間違ったAI出力に対する過信の問題が見つかった。
医療従事者のAIによるオフボード化を改善するために,インタラクティブな例に基づく説明を提案する。
論文 参考訳(メタデータ) (2024-09-24T07:20:09Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Towards Human-AI Deliberation: Design and Evaluation of LLM-Empowered Deliberative AI for AI-Assisted Decision-Making [47.33241893184721]
AIによる意思決定において、人間はしばしばAIの提案を受動的にレビューし、それを受け入れるか拒否するかを決定する。
意思決定における人間-AIの意見の対立に関する議論と人間のリフレクションを促進する新しい枠組みであるHuman-AI Deliberationを提案する。
人間の熟考の理論に基づいて、この枠組みは人間とAIを次元レベルの意見の引用、熟考的議論、意思決定の更新に携わる。
論文 参考訳(メタデータ) (2024-03-25T14:34:06Z) - Beyond Recommender: An Exploratory Study of the Effects of Different AI
Roles in AI-Assisted Decision Making [48.179458030691286]
Recommender、Analyzer、Devil's Advocateの3つのAIの役割について検討する。
以上の結果から,各役割のタスクパフォーマンス,信頼性の適切性,ユーザエクスペリエンスにおける長所と短所が明らかとなった。
これらの洞察は、異なる状況に応じて適応的な機能的役割を持つAIアシスタントを設計する上で、貴重な意味を提供する。
論文 参考訳(メタデータ) (2024-03-04T07:32:28Z) - Training Towards Critical Use: Learning to Situate AI Predictions
Relative to Human Knowledge [22.21959942886099]
我々は、人間がAIモデルでは利用できない知識に対してAI予測をシチュレートする能力を集中させる「クリティカルユース」と呼ばれるプロセス指向の適切な依存の概念を紹介します。
我々は、児童虐待スクリーニングという複雑な社会的意思決定環境でランダム化オンライン実験を行う。
参加者にAIによる意思決定を実践する、迅速で低い機会を提供することによって、初心者は、経験豊富な労働者に類似したAIとの不一致のパターンを示すようになった。
論文 参考訳(メタデータ) (2023-08-30T01:54:31Z) - Understanding the Effect of Counterfactual Explanations on Trust and
Reliance on AI for Human-AI Collaborative Clinical Decision Making [5.381004207943597]
本研究は,7人のセラピストと10人のレイパーを対象に,ストローク後生存者の運動の質を評価するための実験を行った。
我々は2種類のAI説明なしで、彼らのパフォーマンス、タスクの合意レベル、AIへの依存を分析した。
我々の研究は、AIモデルの精度をより正確に見積り、間違ったAI出力に対する過度な信頼を減らすために、反事実的説明の可能性について論じている。
論文 参考訳(メタデータ) (2023-08-08T16:23:46Z) - The Impact of Imperfect XAI on Human-AI Decision-Making [8.305869611846775]
鳥種識別作業において,誤った説明が人間の意思決定行動にどのように影響するかを評価する。
この結果から,AIと人間-AIチームパフォーマンスへの不完全なXAIと,人間の専門知識レベルの影響が明らかになった。
論文 参考訳(メタデータ) (2023-07-25T15:19:36Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - What Do End-Users Really Want? Investigation of Human-Centered XAI for
Mobile Health Apps [69.53730499849023]
説明可能なAI(XAI)を評価するために,ユーザ中心のペルソナ概念を提案する。
分析の結果,ユーザの人口統計や性格,説明のタイプ,影響説明の嗜好が示された。
私たちの洞察は、対話的で人間中心のXAIを実践的な応用に近づけます。
論文 参考訳(メタデータ) (2022-10-07T12:51:27Z) - Factors that influence the adoption of human-AI collaboration in
clinical decision-making [0.0]
我々は、医療分野の専門家との半構造化インタビューを連続して実施することで、人間とAIのコラボレーションの導入の要因を特定した。
我々は、関連する6つの要因を特定し、それらの間の既存の緊張と効果的な人間とAIのコラボレーションを強調します。
論文 参考訳(メタデータ) (2022-04-19T18:19:39Z) - Artificial Artificial Intelligence: Measuring Influence of AI
'Assessments' on Moral Decision-Making [48.66982301902923]
ドナー腎アロケーションに関する道徳的意思決定に対する疑似AIからのフィードバックの効果を検討した。
患者が腎臓を受容器するかどうかの判断は、AIによって与えられると認識される参加者自身の意思決定に関するフィードバックに影響される可能性があるという証拠がいくつか見出された。
論文 参考訳(メタデータ) (2020-01-13T14:15:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。