論文の概要: Explainability matters: The effect of liability rules on the healthcare sector
- arxiv url: http://arxiv.org/abs/2509.17334v1
- Date: Mon, 22 Sep 2025 03:11:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:16.223626
- Title: Explainability matters: The effect of liability rules on the healthcare sector
- Title(参考訳): 説明責任の問題:医療部門における責任規定の影響
- Authors: Jiawen Wei, Elena Verona, Andrea Bertolini, Gianmarco Mengaldo,
- Abstract要約: 我々は、医療における責任の枠組みを確立する上で、説明責任が重要な役割を担っていると論じる。
我々は、医療における責任の枠組みを確立する上で、説明責任が重要な役割を担っていると論じる。
- 参考スコア(独自算出の注目度): 3.6875301107297975
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainability, the capability of an artificial intelligence system (AIS) to explain its outcomes in a manner that is comprehensible to human beings at an acceptable level, has been deemed essential for critical sectors, such as healthcare. Is it really the case? In this perspective, we consider two extreme cases, ``Oracle'' (without explainability) versus ``AI Colleague'' (with explainability) for a thorough analysis. We discuss how the level of automation and explainability of AIS can affect the determination of liability among the medical practitioner/facility and manufacturer of AIS. We argue that explainability plays a crucial role in setting a responsibility framework in healthcare, from a legal standpoint, to shape the behavior of all involved parties and mitigate the risk of potential defensive medicine practices.
- Abstract(参考訳): 人工知能システム(AIS)が人間にとって許容できるレベルで理解可能な方法で成果を説明する能力である説明可能性は、医療などの重要な分野において不可欠であると考えられてきた。
本当にそうなの?
この観点では、徹底的な分析のために「Oracle」と「AIColleague」の2つの極端なケースを考察する。
本稿では,AISの自動化と説明可能性のレベルが,AISの医療実践者・ファシリティ・製造者間の責任決定にどのように影響するかを論じる。
我々は、法的立場から、すべての関係者の行動を形作り、潜在的な防衛医療実践のリスクを軽減するために、医療における責任枠を設定する上で、説明可能性が重要な役割を担っていると論じる。
関連論文リスト
- Accountability Framework for Healthcare AI Systems: Towards Joint Accountability in Decision Making [1.9774267722954466]
本稿では、特に医療におけるAIシステムにおいて、AI説明責任の'What'と'how'のギャップを埋める。
我々は、説明責任の概念を分析し、説明責任の枠組みを定式化し、さまざまな説明責任のメカニズムを扱うための3層構造を提供することにより、これを行う。
論文 参考訳(メタデータ) (2025-09-03T13:05:29Z) - Beyond Technocratic XAI: The Who, What & How in Explanation Design [35.987280553106565]
実際には、意味のある説明を生成することはコンテキスト依存のタスクである。
本論文は, 設計過程の定式化について述べる。
XAIにおける説明設計のための三部構成のフレームワークを提案する。
論文 参考訳(メタデータ) (2025-08-12T08:17:26Z) - Beware of "Explanations" of AI [16.314859121110945]
ますます複雑なAIシステムによってなされる決定と行動を理解することは、依然として重要な課題である。
これにより、説明可能な人工知能(XAI)の研究分野が拡大した。
何が"よい"説明を構成するのかという問題は、目標、ステークホルダ、コンテキストに依存します。
論文 参考訳(メタデータ) (2025-04-09T11:31:08Z) - Medical Hallucinations in Foundation Models and Their Impact on Healthcare [53.97060824532454]
マルチモーダルデータの処理と生成が可能なファンデーションモデルは、医療におけるAIの役割を変革した。
医療幻覚を、モデルが誤解を招く医療内容を生成する場合の例と定義する。
以上の結果から,Chain-of-Thought (CoT) や Search Augmented Generation などの推論手法は,幻覚率を効果的に低減できることがわかった。
これらの知見は、ロバストな検出と緩和戦略のための倫理的かつ実践的な衝動を浮き彫りにした。
論文 参考訳(メタデータ) (2025-02-26T02:30:44Z) - Causal Responsibility Attribution for Human-AI Collaboration [62.474732677086855]
本稿では,人間のAIシステムにおける責任を体系的に評価するために,構造因果モデル(SCM)を用いた因果的枠組みを提案する。
2つのケーススタディは、多様な人間とAIのコラボレーションシナリオにおけるフレームワークの適応性を示している。
論文 参考訳(メタデータ) (2024-11-05T17:17:45Z) - Fool Me Once? Contrasting Textual and Visual Explanations in a Clinical Decision-Support Setting [43.110187812734864]
視覚的説明(可用性マップ)、自然言語の説明、両方のモダリティの組み合わせの3種類の説明を評価した。
テキストに基づく説明は、高い信頼度をもたらすことが分かっており、従順マップと組み合わせることで軽減される。
また、説明の質、すなわち、それがどれだけ事実的に正しい情報であり、それがAIの正しさとどの程度一致しているかが、異なる説明タイプの有用性に大きく影響していることも観察します。
論文 参考訳(メタデータ) (2024-10-16T06:43:02Z) - When Can You Trust Your Explanations? A Robustness Analysis on Feature Importances [42.36530107262305]
説明の堅牢性は、システムと提供された説明の両方を信頼する上で、中心的な役割を果たす。
本稿では,非対向摂動に対するニューラルネットワーク説明の頑健さを解析するための新しいアプローチを提案する。
さらに,様々な説明を集約するアンサンブル手法を提案し,モデルの決定を理解し,頑健さを評価することによって,説明の融合がいかに有用かを示す。
論文 参考訳(メタデータ) (2024-06-20T14:17:57Z) - Unravelling Responsibility for AI [0.8472029664133528]
AI対応システムのアウトプットと影響に責任を負う場所を確立する必要があることは広く認識されている。
本稿では,グラフィカルな表記法と一般的な方法論を伴って,責任の概念的枠組みを提案する。
責任の概念を広げて、誰がAIに責任を持つのかが異なる可能性を明確にする。
論文 参考訳(メタデータ) (2023-08-04T13:12:17Z) - Revisiting the Performance-Explainability Trade-Off in Explainable
Artificial Intelligence (XAI) [0.0]
我々は、リソースの可用性、ドメインの特徴、リスクの考慮を組み込んだ、曖昧な方法でアプローチするのが最善である、と論じる。
この研究は、AIのための要求工学の分野を前進させることを目的としている。
論文 参考訳(メタデータ) (2023-07-26T15:07:40Z) - The role of explainability in creating trustworthy artificial
intelligence for health care: a comprehensive survey of the terminology,
design choices, and evaluation strategies [1.2762298148425795]
透明性の欠如は、医療におけるAIシステムの実装における主要な障壁の1つとして認識されている。
我々は最近の文献をレビューし、説明可能なAIシステムの設計について研究者や実践者にガイダンスを提供する。
我々は、説明可能なモデリングが信頼できるAIに貢献できると結論づけるが、説明可能性の利点は実際に証明する必要がある。
論文 参考訳(メタデータ) (2020-07-31T09:08:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。