論文の概要: Explainability matters: The effect of liability rules on the healthcare sector
- arxiv url: http://arxiv.org/abs/2509.17334v1
- Date: Mon, 22 Sep 2025 03:11:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:16.223626
- Title: Explainability matters: The effect of liability rules on the healthcare sector
- Title(参考訳): 説明責任の問題:医療部門における責任規定の影響
- Authors: Jiawen Wei, Elena Verona, Andrea Bertolini, Gianmarco Mengaldo,
- Abstract要約: 我々は、医療における責任の枠組みを確立する上で、説明責任が重要な役割を担っていると論じる。
我々は、医療における責任の枠組みを確立する上で、説明責任が重要な役割を担っていると論じる。
- 参考スコア(独自算出の注目度): 3.6875301107297975
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainability, the capability of an artificial intelligence system (AIS) to explain its outcomes in a manner that is comprehensible to human beings at an acceptable level, has been deemed essential for critical sectors, such as healthcare. Is it really the case? In this perspective, we consider two extreme cases, ``Oracle'' (without explainability) versus ``AI Colleague'' (with explainability) for a thorough analysis. We discuss how the level of automation and explainability of AIS can affect the determination of liability among the medical practitioner/facility and manufacturer of AIS. We argue that explainability plays a crucial role in setting a responsibility framework in healthcare, from a legal standpoint, to shape the behavior of all involved parties and mitigate the risk of potential defensive medicine practices.
- Abstract(参考訳): 人工知能システム(AIS)が人間にとって許容できるレベルで理解可能な方法で成果を説明する能力である説明可能性は、医療などの重要な分野において不可欠であると考えられてきた。
本当にそうなの?
この観点では、徹底的な分析のために「Oracle」と「AIColleague」の2つの極端なケースを考察する。
本稿では,AISの自動化と説明可能性のレベルが,AISの医療実践者・ファシリティ・製造者間の責任決定にどのように影響するかを論じる。
我々は、法的立場から、すべての関係者の行動を形作り、潜在的な防衛医療実践のリスクを軽減するために、医療における責任枠を設定する上で、説明可能性が重要な役割を担っていると論じる。
関連論文リスト
- Accountability Framework for Healthcare AI Systems: Towards Joint Accountability in Decision Making [1.9774267722954466]
本稿では、特に医療におけるAIシステムにおいて、AI説明責任の'What'と'how'のギャップを埋める。
我々は、説明責任の概念を分析し、説明責任の枠組みを定式化し、さまざまな説明責任のメカニズムを扱うための3層構造を提供することにより、これを行う。
論文 参考訳(メタデータ) (2025-09-03T13:05:29Z) - Beyond Technocratic XAI: The Who, What & How in Explanation Design [35.987280553106565]
実際には、意味のある説明を生成することはコンテキスト依存のタスクである。
本論文は, 設計過程の定式化について述べる。
XAIにおける説明設計のための三部構成のフレームワークを提案する。
論文 参考訳(メタデータ) (2025-08-12T08:17:26Z) - Beware of "Explanations" of AI [16.314859121110945]
ますます複雑なAIシステムによってなされる決定と行動を理解することは、依然として重要な課題である。
これにより、説明可能な人工知能(XAI)の研究分野が拡大した。
何が"よい"説明を構成するのかという問題は、目標、ステークホルダ、コンテキストに依存します。
論文 参考訳(メタデータ) (2025-04-09T11:31:08Z) - Medical Hallucinations in Foundation Models and Their Impact on Healthcare [53.97060824532454]
マルチモーダルデータの処理と生成が可能なファンデーションモデルは、医療におけるAIの役割を変革した。
医療幻覚を、モデルが誤解を招く医療内容を生成する場合の例と定義する。
以上の結果から,Chain-of-Thought (CoT) や Search Augmented Generation などの推論手法は,幻覚率を効果的に低減できることがわかった。
これらの知見は、ロバストな検出と緩和戦略のための倫理的かつ実践的な衝動を浮き彫りにした。
論文 参考訳(メタデータ) (2025-02-26T02:30:44Z) - Causal Responsibility Attribution for Human-AI Collaboration [62.474732677086855]
本稿では,人間のAIシステムにおける責任を体系的に評価するために,構造因果モデル(SCM)を用いた因果的枠組みを提案する。
2つのケーススタディは、多様な人間とAIのコラボレーションシナリオにおけるフレームワークの適応性を示している。
論文 参考訳(メタデータ) (2024-11-05T17:17:45Z) - Fool Me Once? Contrasting Textual and Visual Explanations in a Clinical Decision-Support Setting [43.110187812734864]
視覚的説明(可用性マップ)、自然言語の説明、両方のモダリティの組み合わせの3種類の説明を評価した。
テキストに基づく説明は、高い信頼度をもたらすことが分かっており、従順マップと組み合わせることで軽減される。
また、説明の質、すなわち、それがどれだけ事実的に正しい情報であり、それがAIの正しさとどの程度一致しているかが、異なる説明タイプの有用性に大きく影響していることも観察します。
論文 参考訳(メタデータ) (2024-10-16T06:43:02Z) - When Can You Trust Your Explanations? A Robustness Analysis on Feature Importances [42.36530107262305]
説明の堅牢性は、システムと提供された説明の両方を信頼する上で、中心的な役割を果たす。
本稿では,非対向摂動に対するニューラルネットワーク説明の頑健さを解析するための新しいアプローチを提案する。
さらに,様々な説明を集約するアンサンブル手法を提案し,モデルの決定を理解し,頑健さを評価することによって,説明の融合がいかに有用かを示す。
論文 参考訳(メタデータ) (2024-06-20T14:17:57Z) - The Explanation Necessity for Healthcare AI [3.8953842074141387]
そこで本研究では,4つのクラスから成る新たな分類体系を提案する。
このフレームワークは、研究者が必要な説明可能性の適切な深さを決定するための実用的なツールを提供する。
論文 参考訳(メタデータ) (2024-05-31T22:20:10Z) - Unpacking Human-AI Interaction in Safety-Critical Industries: A Systematic Literature Review [48.052150453947405]
文献でHAIIを記述するために1つの用語は使われていない。
HAIIは、ユーザ関連の主観的指標で最もよく測定される。
研究者と開発者はHAIIの用語を体系化する必要がある。
論文 参考訳(メタデータ) (2023-10-05T08:57:17Z) - Unravelling Responsibility for AI [0.8472029664133528]
AI対応システムのアウトプットと影響に責任を負う場所を確立する必要があることは広く認識されている。
本稿では,グラフィカルな表記法と一般的な方法論を伴って,責任の概念的枠組みを提案する。
責任の概念を広げて、誰がAIに責任を持つのかが異なる可能性を明確にする。
論文 参考訳(メタデータ) (2023-08-04T13:12:17Z) - A Semantic Approach to Decidability in Epistemic Planning (Extended
Version) [72.77805489645604]
我々は決定可能性を達成するために新しい意味論的アプローチを用いる。
具体的には、知識の論理S5$_n$と(知識)可換性と呼ばれる相互作用公理を拡大する。
我々は,本フレームワークが,独立した知識である共通知識の有限的非固定点的特徴を認めていることを証明した。
論文 参考訳(メタデータ) (2023-07-28T11:26:26Z) - Revisiting the Performance-Explainability Trade-Off in Explainable
Artificial Intelligence (XAI) [0.0]
我々は、リソースの可用性、ドメインの特徴、リスクの考慮を組み込んだ、曖昧な方法でアプローチするのが最善である、と論じる。
この研究は、AIのための要求工学の分野を前進させることを目的としている。
論文 参考訳(メタデータ) (2023-07-26T15:07:40Z) - Informing clinical assessment by contextualizing post-hoc explanations
of risk prediction models in type-2 diabetes [50.8044927215346]
本研究は, 合併症リスク予測のシナリオを考察し, 患者の臨床状態に関する文脈に焦点を当てる。
我々は、リスク予測モデル推論に関する文脈を提示し、その受容性を評価するために、最先端のLLMをいくつか採用する。
本論文は,実世界における臨床症例における文脈説明の有効性と有用性を明らかにする最初のエンドツーエンド分析の1つである。
論文 参考訳(メタデータ) (2023-02-11T18:07:11Z) - Everything Has a Cause: Leveraging Causal Inference in Legal Text
Analysis [62.44432226563088]
因果推論は変数間の因果関係を捉えるプロセスである。
本論文では,事実記述から因果グラフを構築するための新たなグラフベース因果推論フレームワークを提案する。
GCIに含まれる因果知識を強力なニューラルネットワークに効果的に注入することで、パフォーマンスと解釈性が向上します。
論文 参考訳(メタデータ) (2021-04-19T16:13:10Z) - The role of explainability in creating trustworthy artificial
intelligence for health care: a comprehensive survey of the terminology,
design choices, and evaluation strategies [1.2762298148425795]
透明性の欠如は、医療におけるAIシステムの実装における主要な障壁の1つとして認識されている。
我々は最近の文献をレビューし、説明可能なAIシステムの設計について研究者や実践者にガイダンスを提供する。
我々は、説明可能なモデリングが信頼できるAIに貢献できると結論づけるが、説明可能性の利点は実際に証明する必要がある。
論文 参考訳(メタデータ) (2020-07-31T09:08:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。