論文の概要: Why we do need Explainable AI for Healthcare
- arxiv url: http://arxiv.org/abs/2206.15363v1
- Date: Thu, 30 Jun 2022 15:35:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-01 19:03:22.670652
- Title: Why we do need Explainable AI for Healthcare
- Title(参考訳): 医療に説明可能なAIが必要な理由
- Authors: Giovanni Cin\`a, Tabea R\"ober, Rob Goedhart and Ilker Birbil
- Abstract要約: 我々は、Explainable AI研究プログラムが人間と機械の相互作用の中心であると主張している。
有効な懸念にもかかわらず、私たちはExplainable AI研究プログラムが人間と機械の相互作用の中心であると主張している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The recent spike in certified Artificial Intelligence (AI) tools for
healthcare has renewed the debate around adoption of this technology. One
thread of such debate concerns Explainable AI and its promise to render AI
devices more transparent and trustworthy. A few voices active in the medical AI
space have expressed concerns on the reliability of Explainable AI techniques,
questioning their use and inclusion in guidelines and standards. Revisiting
such criticisms, this article offers a balanced and comprehensive perspective
on the utility of Explainable AI, focusing on the specificity of clinical
applications of AI and placing them in the context of healthcare interventions.
Against its detractors and despite valid concerns, we argue that the
Explainable AI research program is still central to human-machine interaction
and ultimately our main tool against loss of control, a danger that cannot be
prevented by rigorous clinical validation alone.
- Abstract(参考訳): 最近、医療用の認証人工知能(AI)ツールが急増し、この技術の採用に関する議論が再燃している。
このような議論の1つのスレッドは、説明可能なAIと、AIデバイスをより透明で信頼性の高いものにすることの約束に関するものだ。
医療AI分野で活動している一部の声は、説明可能なAI技術の信頼性に懸念を表明し、その使用とガイドラインや標準への含意を疑問視している。
このような批判を再考し、この記事では、説明可能なAIの実用性に関するバランスよく包括的な視点を提供し、AIの臨床応用の特異性に注目し、それらを医療介入の文脈に配置する。
その欠点や妥当な懸念にもかかわらず、説明可能なai研究プログラムは依然として人間と機械の相互作用の中心であり、究極的には制御の喪失に対する我々の主要なツールであり、厳格な臨床検証だけでは防げない。
関連論文リスト
- Testing autonomous vehicles and AI: perspectives and challenges from cybersecurity, transparency, robustness and fairness [53.91018508439669]
この研究は、人工知能を自律走行車(AV)に統合する複雑さを探求する
AIコンポーネントがもたらした課題と、テスト手順への影響を調べます。
本稿は、重要な課題を特定し、AV技術におけるAIの研究・開発に向けた今後の方向性を提案する。
論文 参考訳(メタデータ) (2024-02-21T08:29:42Z) - FUTURE-AI: International consensus guideline for trustworthy and deployable artificial intelligence in healthcare [73.78776682247187]
医療AIに関連する技術的、臨床的、倫理的、法的リスクに関する懸念が高まっている。
この研究は、Future-AIガイドラインを、医療における信頼できるAIツールの開発とデプロイを導くための最初の国際コンセンサスフレームワークとして説明している。
論文 参考訳(メタデータ) (2023-08-11T10:49:05Z) - Semantic match: Debugging feature attribution methods in XAI for
healthcare [0.0]
ホック後の局所的説明可能性に関する既存の批判は、風呂水で赤ちゃんを捨てるものであると論じる。
特徴重要度を確実に利用することができるかを理解するために,低レベルの特徴と高レベルの特徴の区別を導入する。
論文 参考訳(メタデータ) (2023-01-05T14:26:55Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Breaking Bad News in the Era of Artificial Intelligence and Algorithmic
Medicine: An Exploration of Disclosure and its Ethical Justification using
the Hedonic Calculus [0.0]
私たちは、AIの時代において、'Felicific Calculus'が時間的に準定量的な応用である可能性を示します。
この倫理的アルゴリズムは、AIが支援する行動が道徳的に正当化されるかどうかを、相互に排他的で徹底した7つの領域にわたって評価するためにどのように使用できるかを示す。
論文 参考訳(メタデータ) (2022-06-23T16:54:18Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Explainable AI meets Healthcare: A Study on Heart Disease Dataset [0.0]
目的は、様々な技術を用いて説明可能なAIシステムの理解性と解釈可能性について実践者に啓蒙することである。
本論文は、心臓病データセットに基づく例を収録し、信頼性を高めるために説明可能性技術をどのように好むべきかを解明する。
論文 参考訳(メタデータ) (2020-11-06T05:18:43Z) - The role of explainability in creating trustworthy artificial
intelligence for health care: a comprehensive survey of the terminology,
design choices, and evaluation strategies [1.2762298148425795]
透明性の欠如は、医療におけるAIシステムの実装における主要な障壁の1つとして認識されている。
我々は最近の文献をレビューし、説明可能なAIシステムの設計について研究者や実践者にガイダンスを提供する。
我々は、説明可能なモデリングが信頼できるAIに貢献できると結論づけるが、説明可能性の利点は実際に証明する必要がある。
論文 参考訳(メタデータ) (2020-07-31T09:08:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。