論文の概要: FunnyNodules: A Customizable Medical Dataset Tailored for Evaluating Explainable AI
- arxiv url: http://arxiv.org/abs/2511.15481v1
- Date: Wed, 19 Nov 2025 14:37:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-20 15:51:28.849499
- Title: FunnyNodules: A Customizable Medical Dataset Tailored for Evaluating Explainable AI
- Title(参考訳): FunnyNodules: 説明可能なAIを評価するためのカスタマイズ可能な医療データセット
- Authors: Luisa Gallée, Yiheng Xiong, Meinrad Beer, Michael Götz,
- Abstract要約: 我々はFunnyNodulesを紹介した。FunnyNodulesは、医療AIモデルにおける属性に基づく推論の分析のための、完全にパラメータ化された合成データセットである。
データセットは、ラウンドネス、マージンシャープネス、スポーテーションなどの制御可能な視覚特性を有する肺結節状形状を生成する。
本研究では,FunnyNodulesをモデルに依存しない評価に利用して,モデルが属性-ターゲット関係を正しく学習するかどうかを評価する。
- 参考スコア(独自算出の注目度): 0.5249805590164902
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Densely annotated medical image datasets that capture not only diagnostic labels but also the underlying reasoning behind these diagnoses are scarce. Such reasoning-related annotations are essential for developing and evaluating explainable AI (xAI) models that reason similarly to radiologists: making correct predictions for the right reasons. To address this gap, we introduce FunnyNodules, a fully parameterized synthetic dataset designed for systematic analysis of attribute-based reasoning in medical AI models. The dataset generates abstract, lung nodule-like shapes with controllable visual attributes such as roundness, margin sharpness, and spiculation. Target class is derived from a predefined attribute combination, allowing full control over the decision rule that links attributes to the diagnostic class. We demonstrate how FunnyNodules can be used in model-agnostic evaluations to assess whether models learn correct attribute-target relations, to interpret over- or underperformance in attribute prediction, and to analyze attention alignment with attribute-specific regions of interest. The framework is fully customizable, supporting variations in dataset complexity, target definitions, class balance, and beyond. With complete ground truth information, FunnyNodules provides a versatile foundation for developing, benchmarking, and conducting in-depth analyses of explainable AI methods in medical image analysis.
- Abstract(参考訳): 診断ラベルだけでなく、診断の根底にある理由も捉えることのできる、厳密な注釈付き医療画像データセットは乏しい。
このような推論関連アノテーションは、放射線学者と似た理由を持つ説明可能なAI(xAI)モデルの開発と評価に不可欠である。
このギャップに対処するために、医療AIモデルにおける属性に基づく推論の体系的解析のために設計された、完全にパラメータ化された合成データセットであるFunnyNodulesを紹介する。
データセットは、ラウンドネス、マージンシャープネス、スポーテーションなどの制御可能な視覚特性を持つ抽象的な肺結節状の形状を生成する。
Targetクラスは事前に定義された属性の組み合わせから派生しており、診断クラスに属性をリンクする決定ルールを完全に制御することができる。
本研究では,FunnyNodulesをモデル非依存評価に利用して,モデルが属性-対象関係を正しく学習するか,属性予測におけるオーバーパフォーマンスやアンダーパフォーマンスを解釈し,属性特化領域の注意アライメントを分析する方法を示す。
フレームワークは完全にカスタマイズ可能で、データセットの複雑さ、ターゲット定義、クラスバランスなどのバリエーションをサポートする。
FunnyNodulesは、完全な真実情報によって、医療画像解析における説明可能なAIメソッドの詳細な分析を開発し、ベンチマークし、実行するための汎用的な基盤を提供する。
関連論文リスト
- MIRNet: Integrating Constrained Graph-Based Reasoning with Pre-training for Diagnostic Medical Imaging [67.74482877175797]
MIRNetは、自己教師付き事前学習と制約付きグラフベースの推論を統合する新しいフレームワークである。
TongueAtlas-4Kは,22の診断ラベルを付した4,000枚の画像からなるベンチマークである。
論文 参考訳(メタデータ) (2025-11-13T06:30:41Z) - Interpretable Clinical Classification with Kolgomorov-Arnold Networks [70.72819760172744]
Kolmogorov-Arnold Networks (KAN) は、透明で象徴的な表現を通じて固有の解釈能力を提供する。
Kansは、組み込みの患者レベルの洞察、直感的な可視化、最寄りの患者の検索をサポートする。
これらの結果は、カンを、臨床医が理解し、監査し、行動できる信頼できるAIへの有望なステップと位置づけている。
論文 参考訳(メタデータ) (2025-09-20T17:21:58Z) - Minimum Data, Maximum Impact: 20 annotated samples for explainable lung nodule classification [0.0]
放射線学者は、確立された診断基準として形状やテクスチャなどの属性を使用し、AI意思決定でそれらを反映する。
このようなモデルの採用は、これらの属性を付加した大規模医療画像データセットの不足によって制限される。
この研究は、データセットの制限を克服する合成データの可能性を強調し、医療画像解析における説明可能なモデルの適用性を高める。
論文 参考訳(メタデータ) (2025-08-01T13:54:34Z) - Detecting Dataset Bias in Medical AI: A Generalized and Modality-Agnostic Auditing Framework [8.017827642932746]
データセットに対する一般属性ユーティリティと検出可能性によるバイアステスト(G-AUDIT)は、モダリティに依存しないデータセット監査フレームワークである。
本手法は,患者属性を含むデータ特性とタスクレベルのアノテーションの関係について検討する。
G-AUDITは、従来の定性的手法で見過ごされる微妙な偏見をうまく識別する。
論文 参考訳(メタデータ) (2025-03-13T02:16:48Z) - Evaluating the Explainability of Attributes and Prototypes for a Medical Classification Model [0.0]
属性とプロトタイプに基づく説明をProto-Capsモデルで評価する。
属性スコアと視覚プロトタイプがモデルの信頼性を高めると結論付けることができる。
論文 参考訳(メタデータ) (2024-04-15T16:43:24Z) - Informing clinical assessment by contextualizing post-hoc explanations
of risk prediction models in type-2 diabetes [50.8044927215346]
本研究は, 合併症リスク予測のシナリオを考察し, 患者の臨床状態に関する文脈に焦点を当てる。
我々は、リスク予測モデル推論に関する文脈を提示し、その受容性を評価するために、最先端のLLMをいくつか採用する。
本論文は,実世界における臨床症例における文脈説明の有効性と有用性を明らかにする最初のエンドツーエンド分析の1つである。
論文 参考訳(メタデータ) (2023-02-11T18:07:11Z) - Learn-Explain-Reinforce: Counterfactual Reasoning and Its Guidance to
Reinforce an Alzheimer's Disease Diagnosis Model [1.6287500717172143]
本稿では、診断モデル学習、視覚的説明生成、訓練された診断モデル強化を統一する新しいフレームワークを提案する。
視覚的説明のために,対象ラベルとして識別される入力サンプルを変換する反ファクトマップを生成する。
論文 参考訳(メタデータ) (2021-08-21T07:29:13Z) - Explaining COVID-19 and Thoracic Pathology Model Predictions by
Identifying Informative Input Features [47.45835732009979]
ニューラルネットワークは胸部X線上の分類および回帰タスクにおいて顕著な性能を示した。
特徴帰属法は、出力予測における入力特徴の重要性を識別する。
本研究では,NIH Chest X-ray8およびBrixIAデータセット上で,人間中心の解釈可能性指標と人間に依存しない特徴重要度指標の両方を用いて評価する。
論文 参考訳(メタデータ) (2021-04-01T11:42:39Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Hemogram Data as a Tool for Decision-making in COVID-19 Management:
Applications to Resource Scarcity Scenarios [62.997667081978825]
新型コロナウイルス(COVID-19)のパンデミックは世界中の緊急対応システムに挑戦している。
本研究は, 症状患者の血液検査データから得られた機械学習モデルについて述べる。
提案されたモデルでは、新型コロナウイルスqRT-PCRの結果を、高い精度、感度、特異性で症状のある個人に予測することができる。
論文 参考訳(メタデータ) (2020-05-10T01:45:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。