論文の概要: MedSAE: Dissecting MedCLIP Representations with Sparse Autoencoders
- arxiv url: http://arxiv.org/abs/2510.26411v1
- Date: Thu, 30 Oct 2025 11:58:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-31 16:05:09.794304
- Title: MedSAE: Dissecting MedCLIP Representations with Sparse Autoencoders
- Title(参考訳): MedSAE: スパースオートエンコーダによるMedCLIP表現の分離
- Authors: Riccardo Renzulli, Colas Lepoutre, Enrico Cassano, Marco Grangetto,
- Abstract要約: 我々は,メディカルスパースオートエンコーダ(MedSAE)をMedCLIPの潜在領域に適用することにより,医療視における機械的解釈可能性を向上させる。
私たちの発見は、ハイパフォーマンスな医療AIと透明性を橋渡しし、臨床的に信頼性のある表現へのスケーラブルなステップを提供します。
- 参考スコア(独自算出の注目度): 5.681456272022905
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial intelligence in healthcare requires models that are accurate and interpretable. We advance mechanistic interpretability in medical vision by applying Medical Sparse Autoencoders (MedSAEs) to the latent space of MedCLIP, a vision-language model trained on chest radiographs and reports. To quantify interpretability, we propose an evaluation framework that combines correlation metrics, entropy analyzes, and automated neuron naming via the MedGEMMA foundation model. Experiments on the CheXpert dataset show that MedSAE neurons achieve higher monosemanticity and interpretability than raw MedCLIP features. Our findings bridge high-performing medical AI and transparency, offering a scalable step toward clinically reliable representations.
- Abstract(参考訳): 医療における人工知能は正確で解釈可能なモデルを必要とする。
胸部X線写真およびレポートで訓練された視覚言語モデルであるMedCLIPの潜伏空間にMedSAE(Medicical Sparse Autoencoders)を適用することにより,医療視の機械的解釈性を向上させる。
解釈可能性の定量化を目的として,MedGEMMAファンデーションモデルを用いた相関指標,エントロピー解析,自動ニューロン命名を組み合わせた評価フレームワークを提案する。
CheXpertデータセットの実験により、MedSAEニューロンは生のMedCLIP特徴よりも高い単意味性と解釈性が得られることが示された。
私たちの発見は、ハイパフォーマンスな医療AIと透明性を橋渡しし、臨床的に信頼性のある表現へのスケーラブルなステップを提供します。
関連論文リスト
- MedProbCLIP: Probabilistic Adaptation of Vision-Language Foundation Model for Reliable Radiograph-Report Retrieval [3.7054279251399507]
MedProbCLIPは胸部X線および放射線学報告表現学習と双方向検索のための確率論的視覚言語学習フレームワークである。
このフレームワークは、トレーニング中にマルチビュー・ラジオグラフィエンコーディングとマルチセクション・レポートエンコーディングを使用して、臨床に整合した対応のためのきめ細かい監督を提供する。
これはCLIP、CXR-CLIP、PCME++などの決定論的および確率的ベースラインを、検索とゼロショットの両方で上回る。
論文 参考訳(メタデータ) (2026-02-17T21:20:32Z) - MedCLM: Learning to Localize and Reason via a CoT-Curriculum in Medical Vision-Language Models [0.11666234644810893]
検出データセットを大規模医療視覚質問応答(VQA)データとChain-of-Thought(CoT)推論に変換する自動パイプラインであるMedCLMを紹介する。
視覚的接地のための明示的な病変箱を備えた簡易な段階,暗黙的な局所化を促す中段階,弱教師付き推論のためのハードステージからなる総合的なCoT-Curriculum戦略を提案する。
論文 参考訳(メタデータ) (2025-10-06T04:26:39Z) - Interpretable Clinical Classification with Kolgomorov-Arnold Networks [70.72819760172744]
Kolmogorov-Arnold Networks (KAN) は、透明で象徴的な表現を通じて固有の解釈能力を提供する。
Kansは、組み込みの患者レベルの洞察、直感的な可視化、最寄りの患者の検索をサポートする。
これらの結果は、カンを、臨床医が理解し、監査し、行動できる信頼できるAIへの有望なステップと位置づけている。
論文 参考訳(メタデータ) (2025-09-20T17:21:58Z) - MedGemma Technical Report [75.88152277443179]
MedGemmaは、Gemma 3 4Bと27Bをベースとした医療ビジョン言語基盤モデルの集合体である。
MedGemmaは、画像とテキストの高度な医学的理解と推論を実証する。
また、SigLIPから派生した医用目視エンコーダであるMedSigLIPを紹介する。
論文 参考訳(メタデータ) (2025-07-07T17:01:44Z) - Towards Multi-dimensional Explanation Alignment for Medical Classification [16.799101204390457]
Med-MICN (Medical Multi-dimensional Interpretable Concept Network) という新しいフレームワークを提案する。
Med-MICNは、ニューラルシンボリック推論、コンセプトセマンティクス、サリエンシマップなど、さまざまな角度の解釈可能性アライメントを提供する。
その利点は、高い予測精度、複数の次元にわたる解釈可能性、エンドツーエンドの概念ラベリングプロセスによる自動化である。
論文 参考訳(メタデータ) (2024-10-28T20:03:19Z) - Medical Vision-Language Pre-Training for Brain Abnormalities [96.1408455065347]
本稿では,PubMedなどの公共リソースから,医用画像・テキスト・アライメントデータを自動的に収集する方法を示す。
特に,まず大きな脳画像テキストデータセットを収集することにより,事前学習プロセスの合理化を図るパイプラインを提案する。
また,医療領域におけるサブフィギュアをサブキャプションにマッピングするというユニークな課題についても検討した。
論文 参考訳(メタデータ) (2024-04-27T05:03:42Z) - MRC-based Nested Medical NER with Co-prediction and Adaptive Pre-training [0.38498367961730184]
医療分野におけるモデルの能力向上のために,タスク適応型事前学習戦略を用いたMRC(Machine Reading)に基づく医療NERモデルを提案する。
提案手法は, 比較最先端モデル(SOTA)よりも優れている。
論文 参考訳(メタデータ) (2024-03-23T11:14:02Z) - MedFLIP: Medical Vision-and-Language Self-supervised Fast Pre-Training with Masked Autoencoder [26.830574964308962]
本稿では,医療分析のための高速言語画像事前学習手法であるMedFLIPを紹介する。
交差ドメインを用いたゼロショット学習のためのMAEを探索し、限られたデータから学習するモデルの能力を向上する。
最後に,医療画像解析におけるゼロショット性能の向上を言語を用いて検証する。
論文 参考訳(メタデータ) (2024-03-07T16:11:43Z) - AI Hospital: Benchmarking Large Language Models in a Multi-agent Medical Interaction Simulator [69.51568871044454]
我々は,emphDoctorをプレイヤとして,NPC間の動的医療相互作用をシミュレーションするフレームワークであるtextbfAI Hospitalを紹介した。
この設定は臨床シナリオにおけるLCMの現実的な評価を可能にする。
高品質な中国の医療記録とNPCを利用したマルチビュー医療評価ベンチマークを開発した。
論文 参考訳(メタデータ) (2024-02-15T06:46:48Z) - XAI for In-hospital Mortality Prediction via Multimodal ICU Data [57.73357047856416]
マルチモーダルICUデータを用いて病院内死亡率を予測するための,効率的で説明可能なAIソリューションを提案する。
我々は,臨床データから異種入力を受信し,意思決定を行うマルチモーダル・ラーニングを我々のフレームワークに導入する。
我々の枠組みは、医療研究において重要な要素の発見を容易にする他の臨床課題に容易に移行することができる。
論文 参考訳(メタデータ) (2023-12-29T14:28:04Z) - MedPerf: Open Benchmarking Platform for Medical Artificial Intelligence
using Federated Evaluation [110.31526448744096]
この可能性を解き明かすには、大規模な異種データに対して医療AIモデルの性能を測定する体系的な方法が必要である、と私たちは主張する。
MedPerfは、医療分野で機械学習をベンチマークするためのオープンフレームワークです。
論文 参考訳(メタデータ) (2021-09-29T18:09:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。