論文の概要: Do We Expect More from Radiology AI than from Radiologists?
- arxiv url: http://arxiv.org/abs/2105.06264v1
- Date: Tue, 27 Apr 2021 14:58:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-02 06:30:54.069280
- Title: Do We Expect More from Radiology AI than from Radiologists?
- Title(参考訳): 放射線医学より放射線学のAIの方が期待できる?
- Authors: Maciej A. Mazurowski
- Abstract要約: 放射線学のAIアルゴリズムに期待するものは、放射線学の実践におけるAIの選択と実装を形作るだろう。
私は、AIと放射線学者の期待が根本的に異なるのを観察します。
- 参考スコア(独自算出の注目度): 1.256413718364189
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: What we expect from radiology AI algorithms will shape the selection and
implementation of AI in the radiologic practice. In this paper I consider
prevailing expectations of AI and compare them to expectations that we have of
human readers. I observe that the expectations from AI and radiologists are
fundamentally different. The expectations of AI are based on a strong and
justified mistrust about the way that AI makes decisions. Because AI decisions
are not well understood, it is difficult to know how the algorithms will behave
in new, unexpected situations. However, this mistrust is not mirrored in our
expectations of human readers. Despite well-proven idiosyncrasies and biases in
human decision making, we take comfort from the assumption that others make
decisions in a way as we do, and we trust our own decision making. Despite poor
ability to explain decision making processes in humans, we accept explanations
of decisions given by other humans. Because the goal of radiology is the most
accurate radiologic interpretation, our expectations of radiologists and AI
should be similar, and both should reflect a healthy mistrust of complicated
and partially opaque decision processes undergoing in computer algorithms and
human brains. This is generally not the case now.
- Abstract(参考訳): 放射線学のAIアルゴリズムに期待するものは、放射線学の実践におけるAIの選択と実装を形作るだろう。
本稿では、aiの一般的な期待について検討し、人間の読者の期待と比較する。
私は、AIと放射線学者の期待が根本的に異なるのを観察します。
AIの期待は、AIが意思決定を行う方法に関して、強く正当化された不信に基づいている。
AIの決定はよく理解されていないため、新しい予期せぬ状況においてアルゴリズムがどのように振る舞うかを知るのは難しい。
しかし、この不信は人間の読者の期待を反映していない。
人間の意思決定における慣用性や偏見がよく証明されているにもかかわらず、他人が私たちのように意思決定をするという前提から安心して、私たちは自分自身の意思決定を信頼しています。
人間の意思決定プロセスを説明する能力は乏しいが、他の人間による意思決定の説明を受け入れる。
放射線学の目標は最も正確な放射線学解釈であるため、放射線学者とAIの期待は類似しており、どちらもコンピュータアルゴリズムや人間の脳で行われている複雑で部分的に不透明な決定プロセスに対する健全な不信を反映すべきである。
これは一般的にはそうではない。
関連論文リスト
- Rolling in the deep of cognitive and AI biases [1.556153237434314]
我々は、AIが設計、開発、デプロイされる状況とは切り離せない社会技術システムとして理解する必要があると論じる。
我々は、人間の認知バイアスがAIフェアネスの概観の中核となる急進的な新しい方法論に従うことで、この問題に対処する。
我々は、人間にAIバイアスを正当化する新しいマッピングを導入し、関連する公正度と相互依存を検出する。
論文 参考訳(メタデータ) (2024-07-30T21:34:04Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Generalization of Artificial Intelligence Models in Medical Imaging: A
Case-Based Review [0.0]
様々なAIアルゴリズムの落とし穴を理解するためには,放射線科医の実践が重要である。
AIの使用は、それを支援するものに対するリスクとメリットの根本的な理解によって先行するべきである。
論文 参考訳(メタデータ) (2022-11-15T10:09:51Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - The human-AI relationship in decision-making: AI explanation to support
people on justifying their decisions [4.169915659794568]
人々は、AIがどのように機能するか、そしてそのシステムとの関係を構築するために、その成果をもっと意識する必要があります。
意思決定のシナリオでは、人々はAIがどのように機能するか、そしてそのシステムとの関係を構築する結果についてもっと意識する必要があります。
論文 参考訳(メタデータ) (2021-02-10T14:28:34Z) - Does Explainable Artificial Intelligence Improve Human Decision-Making? [17.18994675838646]
我々は、AI(制御)を使わずに客観的な人間の意思決定精度を、AI予測(説明なし)とAI予測(説明なし)とを比較して評価する。
あらゆる種類のAI予測は、ユーザの判断精度を改善する傾向がありますが、説明可能なAIが有意義な影響を与えるという決定的な証拠はありません。
我々の結果は、少なくともいくつかの状況において、説明可能なAIが提供する「なぜ」情報は、ユーザの意思決定を促進することができないことを示唆している。
論文 参考訳(メタデータ) (2020-06-19T15:46:13Z) - Evidence-based explanation to promote fairness in AI systems [3.190891983147147]
人は意思決定をし、通常、自分の決定を他の人や何かに説明する必要があります。
意思決定をAIサポートで説明するためには、AIがその決定の一部となっているかを理解する必要がある。
我々は,「意思決定の物語を語る」ためのエビデンスに基づく説明設計アプローチを模索してきた。
論文 参考訳(メタデータ) (2020-03-03T14:22:11Z) - Artificial Artificial Intelligence: Measuring Influence of AI
'Assessments' on Moral Decision-Making [48.66982301902923]
ドナー腎アロケーションに関する道徳的意思決定に対する疑似AIからのフィードバックの効果を検討した。
患者が腎臓を受容器するかどうかの判断は、AIによって与えられると認識される参加者自身の意思決定に関するフィードバックに影響される可能性があるという証拠がいくつか見出された。
論文 参考訳(メタデータ) (2020-01-13T14:15:18Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。