論文の概要: CAP-IQA: Context-Aware Prompt-Guided CT Image Quality Assessment
- arxiv url: http://arxiv.org/abs/2601.01613v1
- Date: Sun, 04 Jan 2026 17:30:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-06 16:25:22.565613
- Title: CAP-IQA: Context-Aware Prompt-Guided CT Image Quality Assessment
- Title(参考訳): CAP-IQA: 文脈対応プロンプトガイドCT画像品質評価
- Authors: Kazi Ramisa Rifa, Jie Zhang, Abdullah Imran,
- Abstract要約: 文脈認識型プロンプト誘導画像品質評価フレームワークを提案する。
テキストレベルのプリエントとインスタンスレベルのコンテキストプロンプトを統合する。
因果的偏見を応用して、理想化された知識を、事実的、イメージ固有の劣化から切り離す。
- 参考スコア(独自算出の注目度): 4.6321193613229825
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Prompt-based methods, which encode medical priors through descriptive text, have been only minimally explored for CT Image Quality Assessment (IQA). While such prompts can embed prior knowledge about diagnostic quality, they often introduce bias by reflecting idealized definitions that may not hold under real-world degradations such as noise, motion artifacts, or scanner variability. To address this, we propose the Context-Aware Prompt-guided Image Quality Assessment (CAP-IQA) framework, which integrates text-level priors with instance-level context prompts and applies causal debiasing to separate idealized knowledge from factual, image-specific degradations. Our framework combines a CNN-based visual encoder with a domain-specific text encoder to assess diagnostic visibility, anatomical clarity, and noise perception in abdominal CT images. The model leverages radiology-style prompts and context-aware fusion to align semantic and perceptual representations. On the 2023 LDCTIQA challenge benchmark, CAP-IQA achieves an overall correlation score of 2.8590 (sum of PLCC, SROCC, and KROCC), surpassing the top-ranked leaderboard team (2.7427) by 4.24%. Moreover, our comprehensive ablation experiments confirm that prompt-guided fusion and the simplified encoder-only design jointly enhance feature alignment and interpretability. Furthermore, evaluation on an in-house dataset of 91,514 pediatric CT images demonstrates the true generalizability of CAP-IQA in assessing perceptual fidelity in a different patient population.
- Abstract(参考訳): 医用先行情報を記述テキストでエンコードするPromptベースの手法は、CT画像品質評価(IQA)のために最小限に研究されているだけである。
このようなプロンプトは診断品質に関する事前の知識を埋め込むことができるが、ノイズ、モーションアーティファクト、スキャナーの変動といった現実の劣化を抑えられない理想的な定義を反映することによってバイアスを生じることが多い。
そこで本研究では,テキストレベルの事前情報をインスタンスレベルのコンテキストプロンプトと統合し,因果的偏りを応用して,理想化された知識を現実的,イメージ固有の劣化から分離する,コンテキスト対応型画像品質アセスメント(CAP-IQA)フレームワークを提案する。
腹部CT画像における診断の可視性,解剖学的明瞭度,ノイズ知覚を評価するために,本フレームワークはCNNベースのビジュアルエンコーダとドメイン固有のテキストエンコーダを組み合わせた。
このモデルは、放射線学スタイルのプロンプトと文脈認識融合を利用して、意味的表現と知覚的表現を整合させる。
2023年のLDCTIQAチャレンジベンチマークでは、CAP-IQAの総合相関スコアは2.8590(PLCC、SROCC、KROCC)で、トップクラスのリーダーボードチーム(2.7427)を4.24%上回っている。
さらに, 包括的アブレーション実験により, 急速誘導核融合と簡易エンコーダのみの設計により, 機能アライメントと解釈性が向上することが確認された。
さらに、91,514個の小児CT画像の社内データセットを用いて、異なる患者集団の知覚的忠実度を評価する際のCAP-IQAの真の一般化性を示した。
関連論文リスト
- A Semantically Enhanced Generative Foundation Model Improves Pathological Image Synthesis [82.01597026329158]
本稿では,組織合成のための相関調整フレームワーク(CRAFTS)について紹介する。
CRAFTSは、生物学的精度を確保するためにセマンティックドリフトを抑制する新しいアライメント機構を組み込んでいる。
本モデルは,30種類の癌にまたがる多彩な病理像を生成する。
論文 参考訳(メタデータ) (2025-12-15T10:22:43Z) - MedQ-Bench: Evaluating and Exploring Medical Image Quality Assessment Abilities in MLLMs [39.33140500353129]
MedQ-Benchはマルチモーダル大言語モデル(MLLM)を用いた医療画像品質評価のための総合的なベンチマークである。
ベンチマークは5つの画像モダリティと40以上の品質特性にまたがっており、合計2,600のパーセプティブクエリと708の推論アセスメントがある。
最新のMLLM14例について評価したところ, 既往ながら不安定な知覚能力, 推論能力を示し, 信頼性に乏しい臨床応用が得られた。
論文 参考訳(メタデータ) (2025-10-02T05:42:00Z) - CAPRI-CT: Causal Analysis and Predictive Reasoning for Image Quality Optimization in Computed Tomography [2.422970122886921]
CAPRI-CTは、CT画像における画像品質最適化のための因果解析および予測推論のための因果学習フレームワークである。
画像データと取得メタデータを統合し、画像品質に影響を与える根底にある因果関係をモデル化する。
アンサンブル学習アプローチを用いてトレーニングされ、検証され、強力な予測性能を達成する。
論文 参考訳(メタデータ) (2025-07-23T11:23:02Z) - Text-Visual Semantic Constrained AI-Generated Image Quality Assessment [47.575342788480505]
本稿では,AI生成画像におけるテキスト画像の一貫性と知覚歪みの両方を包括的に評価する統合フレームワークを提案する。
このアプローチでは、複数のモデルから重要な機能を統合し、2つのコアモジュールを導入することで、上記の課題に取り組む。
複数のベンチマークデータセットで実施されたテストは、SC-AGIQAが既存の最先端メソッドより優れていることを示している。
論文 参考訳(メタデータ) (2025-07-14T16:21:05Z) - PhotIQA: A photoacoustic image data set with image quality ratings [7.753621023890248]
PhotIQAは、5つの品質特性の2人の専門家によって評価された1134個の再構成光音響画像からなるデータセットである。
ベースライン実験の結果,HaarPSI$_med$は品質評価と相関してSSIMを著しく上回っていることがわかった。
論文 参考訳(メタデータ) (2025-07-04T11:06:54Z) - VICCA: Visual Interpretation and Comprehension of Chest X-ray Anomalies in Generated Report Without Human Feedback [1.5839621757142595]
本稿では,AI生成医療報告のセマンティックアライメントと位置決め精度の向上を目的とした新しいフレームワークを提案する。
元の画像と生成された画像の特徴を比較することにより、デュアルスコーリングシステムを導入する。
このアプローチは既存の手法よりも優れており、病理の局在化やテキスト・ツー・イメージのアライメントにおいて最先端の結果が得られている。
論文 参考訳(メタデータ) (2025-01-29T16:02:16Z) - Multi-Modal Prompt Learning on Blind Image Quality Assessment [65.0676908930946]
画像品質評価(IQA)モデルは意味情報から大きな恩恵を受け、異なる種類のオブジェクトを明瞭に扱うことができる。
十分な注釈付きデータが不足している従来の手法では、セマンティックな認識を得るために、CLIPイメージテキスト事前学習モデルをバックボーンとして使用していた。
近年のアプローチでは、このミスマッチに即時技術を使って対処する試みがあるが、これらの解決策には欠点がある。
本稿では、IQAのための革新的なマルチモーダルプロンプトベースの手法を提案する。
論文 参考訳(メタデータ) (2024-04-23T11:45:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。