論文の概要: MedEBench: Revisiting Text-instructed Image Editing on Medical Domain
- arxiv url: http://arxiv.org/abs/2506.01921v3
- Date: Wed, 04 Jun 2025 10:55:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 13:54:39.524488
- Title: MedEBench: Revisiting Text-instructed Image Editing on Medical Domain
- Title(参考訳): MedEBench:医学領域におけるテキスト命令による画像編集の再検討
- Authors: Minghao Liu, Zhitao He, Zhiyuan Fan, Qingyun Wang, Yi R. Fung,
- Abstract要約: MedEBenchはテキストガイドによる医用画像編集を評価するためのベンチマークである。
13の解剖学的領域にまたがる70のタスクにまたがる1,182の臨床ソースの画像プロンプトからなる。
- 参考スコア(独自算出の注目度): 3.6550055178925835
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Text-guided image editing has seen rapid progress in natural image domains, but its adaptation to medical imaging remains limited and lacks standardized evaluation. Clinically, such editing holds promise for simulating surgical outcomes, creating personalized teaching materials, and enhancing patient communication. To bridge this gap, we introduce MedEBench, a comprehensive benchmark for evaluating text-guided medical image editing. It consists of 1,182 clinically sourced image-prompt triplets spanning 70 tasks across 13 anatomical regions. MedEBench offers three key contributions: (1) a clinically relevant evaluation framework covering Editing Accuracy, Contextual Preservation, and Visual Quality, supported by detailed descriptions of expected change and ROI (Region of Interest) masks; (2) a systematic comparison of seven state-of-the-art models, revealing common failure patterns; and (3) a failure analysis protocol based on attention grounding, using IoU between attention maps and ROIs to identify mislocalization. MedEBench provides a solid foundation for developing and evaluating reliable, clinically meaningful medical image editing systems. Project website: https://mliuby.github.io/MedEBench_Website/
- Abstract(参考訳): テキスト誘導画像編集は、自然画像領域で急速に進歩しているが、医用画像への適応は限定的であり、標準化された評価を欠いている。
臨床的には、そのような編集は外科的成果をシミュレートし、パーソナライズされた教材を作成し、患者とのコミュニケーションを強化することを約束する。
このギャップを埋めるために、テキストガイドによる医用画像編集を評価するための総合的なベンチマークであるMedEBenchを導入する。
13の解剖学的領域にまたがる70のタスクにまたがる1,182の臨床ソースの画像プロンプトからなる。
MedEBenchは,(1)予測変化とROI(関心)マスクの詳細な記述によって支援される,精度,文脈保存,視覚品質の編集を対象とする臨床的に関連性のある評価フレームワーク,(2)最先端の7つのモデルと一般的な障害パターンを体系的に比較し,(3)注意基盤に基づく障害分析プロトコル,(3)注意マップとROI間のIoUを用いて,非局在化を識別する。
MedEBenchは信頼性が高く、臨床的に意味のある医用画像編集システムを開発し、評価するための確かな基盤を提供する。
Project website: https://mliuby.github.io/MedEBench_Website/
関連論文リスト
- GIE-Bench: Towards Grounded Evaluation for Text-Guided Image Editing [60.66800567924348]
テキスト誘導画像編集モデルを評価するための新しいベンチマークを導入する。
このベンチマークには、20種類のコンテンツカテゴリにわたる高品質な編集例が1000以上含まれている。
我々は、GPT-Image-1をいくつかの最先端編集モデルと比較する大規模な研究を行っている。
論文 参考訳(メタデータ) (2025-05-16T17:55:54Z) - Interactive Tumor Progression Modeling via Sketch-Based Image Editing [54.47725383502915]
腫瘍進行編集のためのスケッチベース拡散モデルであるSkEditTumorを提案する。
スケッチを構造的先行として活用することにより,構造的整合性と視覚的リアリズムを維持しつつ,腫瘍領域の精密な修正を可能にする。
私たちのコントリビューションには、医用画像編集のための拡散モデルとスケッチの新たな統合、腫瘍進行の可視化のきめ細かい制御、複数のデータセットにわたる広範な検証などが含まれています。
論文 参考訳(メタデータ) (2025-03-10T00:04:19Z) - Structure-Aware Stylized Image Synthesis for Robust Medical Image Segmentation [10.776242801237862]
本稿では,拡散モデルと構造保存ネットワークを組み合わせた新しい医用画像分割手法を提案する。
本手法は, 病変の位置, サイズ, 形状を維持しつつ, 様々なソースからの画像を一貫したスタイルに変換することで, 領域シフトを効果的に軽減する。
論文 参考訳(メタデータ) (2024-12-05T16:15:32Z) - Vision-guided and Mask-enhanced Adaptive Denoising for Prompt-based Image Editing [28.904419606450876]
視覚誘導・マスク強調適応編集法(ViMAEdit)を提案する。
まず,画像の埋め込みを明示的なガイダンスとして活用し,従来のテキストのプロンプトに基づく記述プロセスを強化することを提案する。
第2に,自己注意型反復編集領域接地戦略を考案する。
論文 参考訳(メタデータ) (2024-10-14T13:41:37Z) - Plaintext-Free Deep Learning for Privacy-Preserving Medical Image Analysis via Frequency Information Embedding [9.192156293063414]
本稿では,サロゲート画像を解析に用いる新しいフレームワークを提案する。
このフレームワークは、周波数領域交換スタイル融合(FESF)と呼ばれる。
本フレームワークは,医療画像のプライバシを効果的に保ち,DLモデルの診断精度を比較的高いレベルで維持し,各種データセットやDLベースモデルに対して有効性を示す。
論文 参考訳(メタデータ) (2024-03-25T06:56:38Z) - QUBIQ: Uncertainty Quantification for Biomedical Image Segmentation Challenge [93.61262892578067]
医用画像分割作業の不確実性、特にラター間変動性は重要な課題である。
この可変性は、自動セグメンテーションアルゴリズムの開発と評価に直接影響を及ぼす。
バイオメディカル画像量化チャレンジ(QUBIQ)における不確実性の定量化のベンチマーク結果を報告する。
論文 参考訳(メタデータ) (2024-03-19T17:57:24Z) - Decomposing Disease Descriptions for Enhanced Pathology Detection: A Multi-Aspect Vision-Language Pre-training Framework [43.453943987647015]
医学的な視覚言語事前訓練は研究の最前線として現れ、ゼロショットの病理診断を可能にしている。
バイオメディカルテキストの複雑なセマンティクスのため、現在の方法では、医学的画像と、非構造化レポートの重要な病理学的所見の整合に苦慮している。
これは、大きな言語モデルと医療専門家に相談することで達成される。
我々の研究は、近年の手法の精度を最大8.56%まで改善し、17.26%を目に見えるカテゴリーで改善した。
論文 参考訳(メタデータ) (2024-03-12T13:18:22Z) - ElixirNet: Relation-aware Network Architecture Adaptation for Medical
Lesion Detection [90.13718478362337]
本稿では,1)TruncatedRPNが正負値と負値のバランスをとること,2)Auto-lesion Blockが自動的に医療画像にカスタマイズされ,地域提案間の関係認識操作が組み込まれること,3)Relation Transferモジュールが意味的関係を組み込むこと,の3つのコンポーネントを含む新しいElixirNetを紹介した。
DeepLesionとKits19の実験では、ElixirNetの有効性が証明され、パラメータが少なくてFPNよりも感度と精度が向上した。
論文 参考訳(メタデータ) (2020-03-03T05:29:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。