論文の概要: Layer-Specific Fine-Tuning for Improved Negation Handling in Medical Vision-Language Models
- arxiv url: http://arxiv.org/abs/2602.12498v1
- Date: Fri, 13 Feb 2026 00:44:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-16 23:37:53.798191
- Title: Layer-Specific Fine-Tuning for Improved Negation Handling in Medical Vision-Language Models
- Title(参考訳): 医用ビジョンランゲージモデルにおける改善ネゲーションハンドリングのための層状ファインチューニング
- Authors: Ali Abbasi, Mehdi Taghipour, Rahmatollah Beheshti,
- Abstract要約: 否定は臨床報告において基本的な言語的操作であるが、視覚言語モデル(VLM)はしばしば否定的な医療声明と肯定的な主張を区別することができない。
制御された臨床条件下での極性感度を評価する放射線学的診断ベンチマークを導入する。
我々は,構造化クレームを符号化し,属性レベルの否定をサポートする文脈的臨床否定データセットを構築した。
- 参考スコア(独自算出の注目度): 6.260109821811391
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Negation is a fundamental linguistic operation in clinical reporting, yet vision-language models (VLMs) frequently fail to distinguish affirmative from negated medical statements. To systematically characterize this limitation, we introduce a radiology-specific diagnostic benchmark that evaluates polarity sensitivity under controlled clinical conditions, revealing that common medical VLMs consistently confuse negated and non-negated findings. To enable learning beyond simple condition absence, we further construct a contextual clinical negation dataset that encodes structured claims and supports attribute-level negations involving location and severity. Building on these resources, we propose Negation-Aware Selective Training (NAST), an interpretability-guided adaptation method that uses causal tracing effects (CTEs) to modulate layer-wise gradient updates during fine-tuning. Rather than applying uniform learning rates, NAST scales each layer's update according to its causal contribution to negation processing, transforming mechanistic interpretability signals into a principled optimization rule. Experiments demonstrate improved discrimination of affirmative and negated clinical statements without degrading general vision-language alignment, highlighting the value of causal interpretability for targeted model adaptation in safety-critical medical settings. Code and resources are available at https://github.com/healthylaife/NAST.
- Abstract(参考訳): 否定は臨床報告において基本的な言語的操作であるが、視覚言語モデル(VLM)はしばしば否定的な医療声明と肯定的な主張を区別することができない。
この限界をシステマティックに特徴づけるために,コントロールされた臨床条件下での極性感度を評価する放射線学固有の診断基準を導入し,一般的な医用VLMが陰性および非負性所見を一貫して混同していることを明らかにする。
簡単な条件不在以上の学習を可能にするため、構造化されたクレームを符号化し、位置と重大性を含む属性レベルの否定をサポートするコンテキスト的臨床否定データセットを構築した。
これらの資源をベースとしたNAST(Negation-Aware Selective Training)を提案する。これは、因果トレース効果(CTE)を用いて微調整中の層次勾配更新を変調する解釈可能性誘導適応法である。
NASTは、均一な学習率を適用するのではなく、否定処理への因果的貢献に従って各レイヤの更新をスケールし、機械的解釈可能性信号を原則化された最適化ルールに変換する。
実験では、一般的な視覚言語アライメントを低下させることなく、肯定的および否定的な臨床的ステートメントの識別を改善し、安全クリティカルな医療環境におけるターゲットモデル適応に対する因果解釈可能性の価値を強調した。
コードとリソースはhttps://github.com/healthylaife/NAST.comで入手できる。
関連論文リスト
- Bi-MCQ: Reformulating Vision-Language Alignment for Negation Understanding [8.633836909967581]
Bi-MCQは、最先端のZero CARモデルのゼロショット性能に対して、最大0.47 MCQ AUCの否定的理解を改善する。
Bi-MCQはInfoNCEベースの微調整と比較して、肯定的負のAUCギャップを平均0.12削減する。
論文 参考訳(メタデータ) (2026-01-30T08:14:45Z) - A Federated and Parameter-Efficient Framework for Large Language Model Training in Medicine [59.78991974851707]
大規模言語モデル(LLM)は、質問応答や診断など、医療ベンチマークにおいて強力なパフォーマンスを示している。
ほとんどの医療用LDMは、異種システムの一般化性と安全性の制限に直面している単一の機関のデータに基づいて訓練されている。
本稿では, LLMを医療応用に適用するためのモデルに依存しない, パラメータ効率のよいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2026-01-29T18:48:21Z) - AgentsEval: Clinically Faithful Evaluation of Medical Imaging Reports via Multi-Agent Reasoning [73.50200033931148]
本稿では,放射線科医の協調診断ワークフローをエミュレートしたマルチエージェントストリーム推論フレームワークであるAgensEvalを紹介する。
評価プロセスを基準定義、エビデンス抽出、アライメント、一貫性スコアなどの解釈可能なステップに分割することで、AgensEvalは明確な推論トレースと構造化された臨床フィードバックを提供する。
実験結果から,AgensEvalは,言い換え,意味的,スタイリスティックな摂動の下でも頑健な臨床的整合性,意味的忠実性,解釈可能な評価を提供することが示された。
論文 参考訳(メタデータ) (2026-01-23T11:59:13Z) - The Effect of Negation on CLIP in Medical Imaging: Limitations of Contrastive Language-Image Pretraining [2.797002704887474]
我々は,Stanford AIMI CheXagentモデルの胸部X線像を,否定を伴わないプロンプトを用いて正確に検索する能力について評価した。
以上の結果から,CLIPモデルにおける否定処理の処理精度は,肯定的評価の精度をわずかに低下させることが明らかとなった。
論文 参考訳(メタデータ) (2025-12-18T23:19:19Z) - Timely Clinical Diagnosis through Active Test Selection [49.091903570068155]
本稿では,現実の診断推論をよりうまくエミュレートするためのACTMED (Adaptive Clinical Test selection via Model-based Experimental Design)を提案する。
LLMは柔軟なシミュレータとして機能し、構造化されたタスク固有のトレーニングデータを必要とせずに、患者状態のもっともらしい分布を生成し、信念の更新をサポートする。
我々は、実世界のデータセット上でACTMEDを評価し、診断精度、解釈可能性、リソース使用量を改善するためにテスト選択を最適化できることを示す。
論文 参考訳(メタデータ) (2025-10-21T18:10:45Z) - Embeddings to Diagnosis: Latent Fragility under Agentic Perturbations in Clinical LLMs [0.0]
本稿では, 臨床用LDMの潜在ロバスト性について, 構造的対向編集による検討を行うLAPD (Latent Agentic Perturbation Diagnostics) を提案する。
本フレームワークでは,PCA-Reduced Latent Spaceにクロス決定境界を埋め込む際に,表現不安定性を捉えるモデルに依存しない診断信号であるLatent Diagnosis Flip Rate (LDFR)を導入する。
その結果, 表面の堅牢性とセマンティック安定性の間には, 安全クリティカルな臨床AIにおける幾何学的監査の重要性を浮き彫りにした。
論文 参考訳(メタデータ) (2025-07-27T16:48:53Z) - DeVisE: Behavioral Testing of Medical Large Language Models [14.832083455439749]
DeVisEは、きめ細かい臨床的理解を求めるための行動テストフレームワークである。
我々はMIMIC-IVからICU排出音符のデータセットを構築した。
汎用型および医療用微調整型にまたがる5種類のLSMについて検討した。
論文 参考訳(メタデータ) (2025-06-18T10:42:22Z) - Bringing CLIP to the Clinic: Dynamic Soft Labels and Negation-Aware Learning for Medical Analysis [0.9944647907864256]
臨床的に強化されたダイナミック・ソフト・ラベルと医用グラフィカル・アライメントを統合した新しいアプローチを提案する。
われわれのアプローチは、医療用CLIPトレーニングパイプラインに容易に統合され、最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2025-05-28T08:00:18Z) - Know "No" Better: A Data-Driven Approach for Enhancing Negation Awareness in CLIP [57.33324843049638]
本稿では,大言語モデル(LLM)と多モーダルLLMを用いたデータ生成パイプラインを導入し,否定を包含するキャプションを生成する。
パイプラインから生成したデータを微調整したCLIPを用いて,一般性を維持しつつ否定意識を高めるNegationCLIPを開発した。
さまざまなCLIPアーキテクチャの実験は、CLIPの否定を正確に認識する能力を向上する上で、データ生成パイプラインの有効性を検証する。
論文 参考訳(メタデータ) (2025-01-19T01:17:05Z) - Improving negation detection with negation-focused pre-training [58.32362243122714]
否定は共通の言語的特徴であり、多くの言語理解タスクにおいて不可欠である。
最近の研究で、最先端のNLPモデルは否定を含むサンプルで性能が低いことが示されている。
本稿では,データ拡張と否定マスキングを対象とする,否定に焦点をあてた新たな事前学習戦略を提案する。
論文 参考訳(メタデータ) (2022-05-09T02:41:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。