論文の概要: Prompt-Conditioned FiLM and Multi-Scale Fusion on MedSigLIP for Low-Dose CT Quality Assessment
- arxiv url: http://arxiv.org/abs/2511.12256v1
- Date: Sat, 15 Nov 2025 15:26:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:23.776725
- Title: Prompt-Conditioned FiLM and Multi-Scale Fusion on MedSigLIP for Low-Dose CT Quality Assessment
- Title(参考訳): 低線量CT品質評価のためのMedSigLIPのプロンプトコンディションFLMとマルチスケールフュージョン
- Authors: Tolga Demiroglu, Mehmet Ozan Unal, Metin Ertas, Isa Yildirim,
- Abstract要約: 本稿では,FiLM (Feature-wise Linear Modulation) とマルチスケールプーリングにより,テキスト先行を注入するプロンプト条件付きフレームワークを提案する。
我々はPLCC = 0.9575, SROCC = 0.9561, KROCC = 0.8301 を達成する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a prompt-conditioned framework built on MedSigLIP that injects textual priors via Feature-wise Linear Modulation (FiLM) and multi-scale pooling. Text prompts condition patch-token features on clinical intent, enabling data-efficient learning and rapid adaptation. The architecture combines global, local, and texture-aware pooling through separate regression heads fused by a lightweight MLP, trained with pairwise ranking loss. Evaluated on the LDCTIQA2023 (a public LDCT quality assessment challenge) with 1,000 training images, we achieve PLCC = 0.9575, SROCC = 0.9561, and KROCC = 0.8301, surpassing the top-ranked published challenge submissions and demonstrating the effectiveness of our prompt-guided approach.
- Abstract(参考訳): We propose a prompt-conditioned framework built on MedSigLIP that injects textual priors through Feature-wise Linear Modulation (FiLM) and multi-scale pooling。
テキストは、データ効率の学習と迅速な適応を可能にする。
このアーキテクチャは、グローバル、ローカル、およびテクスチャ対応のプーリングを組み合わせた軽量MLPによって融合された別個のレグレッションヘッドで、ペアのランキング損失をトレーニングする。
LDCTIQA2023(公共のLDCT品質評価課題)を1000のトレーニング画像で評価し,PLCC = 0.9575, SROCC = 0.9561, KROCC = 0.8301を達成し, 上位の課題を上回り, 迅速なアプローチの有効性を実証した。
関連論文リスト
- Hierarchical Self-Supervised Representation Learning for Depression Detection from Speech [51.14752758616364]
音声による抑うつ検出 (SDD) は、従来の臨床評価に代わる有望で非侵襲的な代替手段である。
HAREN-CTCは,マルチタスク学習フレームワーク内でのクロスアテンションを用いて,多層SSL機能を統合した新しいアーキテクチャである。
このモデルはDAIC-WOZで0.81、MODMAで0.82の最先端マクロF1スコアを達成し、両方の評価シナリオで先行手法より優れている。
論文 参考訳(メタデータ) (2025-10-05T09:32:12Z) - LRMR: LLM-Driven Relational Multi-node Ranking for Lymph Node Metastasis Assessment in Rectal Cancer [12.795639054336226]
直腸癌リンパ節転移の術前評価は治療決定を導く。
一部の人工知能モデルはブラックボックスとして機能し、臨床信頼に必要な解釈性に欠ける。
LLM-Driven Multi-node Ranking frameworkであるLRMRを紹介する。
論文 参考訳(メタデータ) (2025-07-15T16:29:45Z) - Embedding-based Retrieval in Multimodal Content Moderation [20.899256623912933]
従来の分類手法を補完するために, 埋め込み型検索法(EBR)を提案する。
EBRはアクションレートを10.32%引き上げ、運用コストを80%以上削減し、解釈可能性と柔軟性を向上させる。
論文 参考訳(メタデータ) (2025-06-30T19:11:25Z) - Prompt-Guided Latent Diffusion with Predictive Class Conditioning for 3D Prostate MRI Generation [1.6508709227918446]
潜在拡散モデル(LDM)は、医療画像の機械学習開発に影響を与えるデータの不足を緩和する可能性がある。
これらの制約に対処する新しい LDM 条件付け手法を提案する。
本手法は,3次元前立腺MRIデータセットの3次元FIDスコアが0.025であることを示す。
論文 参考訳(メタデータ) (2025-06-11T23:12:48Z) - LlaMADRS: Prompting Large Language Models for Interview-Based Depression Assessment [75.44934940580112]
LlaMADRSは、オープンソースのLarge Language Models(LLM)を利用して、うつ病の重症度評価を自動化する新しいフレームワークである。
本研究は,クリニカルインタヴューの解釈・スコアリングにおけるモデル指導のために,慎重に設計された手がかりを用いたゼロショットプロンプト戦略を用いている。
実世界における236件のインタビューを対象とし,臨床評価と強い相関性を示した。
論文 参考訳(メタデータ) (2025-01-07T08:49:04Z) - Multi-Epoch learning with Data Augmentation for Deep Click-Through Rate Prediction [53.88231294380083]
非連続的な学習シナリオと連続的な学習シナリオの両方に適合する、新しいMulti-Epoch Learning with Data Augmentation (MEDA)フレームワークを導入する。
MEDAは、その後のトレーニングデータへの埋め込み層の依存性を減らし、過度な適合を最小化する。
実験の結果,プレトレーニングした層が新しい埋め込み空間に適応し,過度に適合することなく性能を向上できることが確認された。
論文 参考訳(メタデータ) (2024-06-27T04:00:15Z) - SarcNet: A Novel AI-based Framework to Automatically Analyze and Score Sarcomere Organizations in Fluorescently Tagged hiPSC-CMs [9.20965688800047]
ヒト多能性幹細胞由来心筋細胞(hiPSC-CMs)におけるサルコメア構造の定量化は、心臓疾患の病態の解明、薬物スクリーニングの改善、再生医療の進展に不可欠である。
本稿では, 細胞画像を活用し, 細胞の特徴を統合し, 分化の開始からhiPSC-CMのサーコメア構造を自動的に評価する, 新たなディープラーニングベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-28T07:48:10Z) - Consistency Trajectory Models: Learning Probability Flow ODE Trajectory of Diffusion [56.38386580040991]
Consistency Trajectory Model (CTM) は Consistency Models (CM) の一般化である
CTMは、対戦訓練とスコアマッチング損失を効果的に組み合わせることで、パフォーマンスを向上させる。
CMとは異なり、CTMのスコア関数へのアクセスは、確立された制御可能/条件生成メソッドの採用を合理化することができる。
論文 参考訳(メタデータ) (2023-10-01T05:07:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。