論文の概要: Med-Banana-50K: A Cross-modality Large-Scale Dataset for Text-guided Medical Image Editing
- arxiv url: http://arxiv.org/abs/2511.00801v3
- Date: Fri, 07 Nov 2025 16:53:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-10 14:53:49.498905
- Title: Med-Banana-50K: A Cross-modality Large-Scale Dataset for Text-guided Medical Image Editing
- Title(参考訳): Med-Banana-50K:テキスト誘導医療画像編集のためのクロスモダリティ大規模データセット
- Authors: Zhihui Chen, Mengling Feng,
- Abstract要約: Med-Banana-50Kは、胸部X線、脳MRI、23の疾患を含む50万以上の画像編集の包括的なデータセットである。
私たちのデータセットの重要な差別化要因は、医学的に基盤とした品質管理プロトコルです。
Med-Banana-50Kには、完全な評価ログによる編集の試みが約37,000回失敗している。
- 参考スコア(独自算出の注目度): 10.156463079664134
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Medical image editing has emerged as a pivotal technology with broad applications in data augmentation, model interpretability, medical education, and treatment simulation. However, the lack of large-scale, high-quality, and openly accessible datasets tailored for medical contexts with strict anatomical and clinical constraints has significantly hindered progress in this domain. To bridge this gap, we introduce Med-Banana-50K, a comprehensive dataset of over 50k medically curated image edits spanning chest X-ray, brain MRI, and fundus photography across 23 diseases. Each sample supports bidirectional lesion editing (addition and removal) and is constructed using Gemini-2.5-Flash-Image based on real clinical images. A key differentiator of our dataset is the medically grounded quality control protocol: we employ an LLM-as-Judge evaluation framework with criteria such as instruction compliance, structural plausibility, image realism, and fidelity preservation, alongside iterative refinement over up to five rounds. Additionally, Med-Banana-50K includes around 37,000 failed editing attempts with full evaluation logs to support preference learning and alignment research. By offering a large-scale, medically rigorous, and fully documented resource, Med-Banana-50K establishes a critical foundation for developing and evaluating reliable medical image editing systems. Our dataset and code are publicly available. [https://github.com/richardChenzhihui/med-banana-50k].
- Abstract(参考訳): 医用画像編集は、データ拡張、モデル解釈可能性、医学教育、治療シミュレーションに広く応用された重要な技術として登場した。
しかし, 解剖学的, 臨床的制約が厳格な医学的文脈に適した大規模で高品質でオープンにアクセス可能なデータセットの欠如は, この領域の進歩を著しく妨げている。
このギャップを埋めるために、私たちはMed-Banana-50Kを紹介します。
それぞれのサンプルは、双方向の病変編集(追加と除去)をサポートし、実際の臨床画像に基づいてGemini-2.5-Flash-Imageを用いて構築される。
我々は,LLM-as-Judge評価フレームワークを用いて,命令コンプライアンス,構造的妥当性,画像リアリズム,忠実度保存などの基準を,最大5ラウンドで反復的に改善する。
さらに、Med-Banana-50Kには、選好学習とアライメント研究をサポートするための完全な評価ログによる編集の試みが約37,000回失敗している。
Med-Banana-50Kは、大規模で、医学的に厳格で、完全に文書化されたリソースを提供することで、信頼できる医用画像編集システムを開発し評価するための重要な基盤を確立している。
データセットとコードは公開されています。
https://github.com/richardChenzhihui/med-banana-50k]
関連論文リスト
- MieDB-100k: A Comprehensive Dataset for Medical Image Editing [41.846794649076514]
既存の医用画像編集データセットは、限られた多様性、医療用画像理解の欠如、品質とスケーラビリティのバランスの取れないことがしばしばある。
テキスト誘導医療画像編集のための大規模で高品質で多様なデータセットであるMieDB-100kを提案する。
編集作業は、理解能力と生成能力の両方を考慮して、知覚、修正、変換の観点に分類する。
論文 参考訳(メタデータ) (2026-02-10T09:37:05Z) - MedROV: Towards Real-Time Open-Vocabulary Detection Across Diverse Medical Imaging Modalities [89.81463562506637]
医用画像のための最初のリアルタイムオープン語彙検出モデルであるMedROVを紹介する。
対照的な学習とクロスモーダル表現を活用することで、MedROVは既知の構造と新しい構造の両方を効果的に検出する。
論文 参考訳(メタデータ) (2025-11-25T18:59:53Z) - MedREK: Retrieval-Based Editing for Medical LLMs with Key-Aware Prompts [70.64143198545031]
本稿では,情報誘導のための注目型プロンプトエンコーダと正確なマッチングのための共有クエリキーモジュールを統合した検索ベースの編集フレームワークであるMedREKを提案する。
各種医用ベンチマークの結果から,MedREKは異なるコアメトリクス間で優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2025-10-15T12:50:33Z) - Hulu-Med: A Transparent Generalist Model towards Holistic Medical Vision-Language Understanding [112.46150793476603]
Hulu-Medは透明な医療用VLMで、これらすべてのモダリティの理解を統一する。
パッチベースのビジョンエンコーダとLCMデコーダを統一して構築され、Hulu-Medは2Dから3D、ビデオの理解のために167万 (M) のサンプルを徐々に訓練した。
論文 参考訳(メタデータ) (2025-10-09T17:06:42Z) - MedGen: Unlocking Medical Video Generation by Scaling Granularly-annotated Medical Videos [16.86256309424395]
MedVideoCap-55Kは、医用ビデオ生成のための、最初の大規模、多様な、キャプションに富んだデータセットである。
実際の医療シナリオにまたがる55,000以上のキュレートされたクリップで構成されている。
このデータセット上に構築されたMedGenは,オープンソースモデル間での先行的なパフォーマンスを実現する。
論文 参考訳(メタデータ) (2025-07-08T04:58:36Z) - MedGemma Technical Report [75.88152277443179]
MedGemmaは、Gemma 3 4Bと27Bをベースとした医療ビジョン言語基盤モデルの集合体である。
MedGemmaは、画像とテキストの高度な医学的理解と推論を実証する。
また、SigLIPから派生した医用目視エンコーダであるMedSigLIPを紹介する。
論文 参考訳(メタデータ) (2025-07-07T17:01:44Z) - MedEBench: Diagnosing Reliability in Text-Guided Medical Image Editing [14.713122814049806]
MedEBenchはテキスト誘導医療画像編集における信頼性の診断を目的としたベンチマークである。
MedEBenchは、70の異なる編集タスクと13の解剖学的領域を含む、1,182の臨床試験済みイメージプロンプトペアで構成されている。
論文 参考訳(メタデータ) (2025-06-02T17:43:01Z) - MedITok: A Unified Tokenizer for Medical Image Synthesis and Interpretation [23.783507307500116]
医用画像に適した最初の統一トークン化ツールであるMedITokについて紹介する。
低レベルの構造の詳細と、統合潜在空間内の高レベルの臨床的意味をエンコードする。
9つの画像モダリティと4つの異なるタスクにわたる30以上のデータセットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-05-25T16:39:35Z) - MedFrameQA: A Multi-Image Medical VQA Benchmark for Clinical Reasoning [24.9872402922819]
既存の医療用VQAベンチマークは、主にシングルイメージ分析に焦点を当てている。
医療用VQAにおけるマルチイメージ推論を明示的に評価する最初のベンチマークであるMedFrameQAを紹介する。
論文 参考訳(メタデータ) (2025-05-22T17:46:11Z) - BIOMEDICA: An Open Biomedical Image-Caption Archive, Dataset, and Vision-Language Models Derived from Scientific Literature [73.39593644054865]
BIOMEDICAはスケーラブルでオープンソースのフレームワークで、PubMed Central Open Accessサブセット全体を抽出、注釈付け、シリアライズして、使いやすく、公開可能なデータセットにする。
われわれのフレームワークは600万以上の記事から2400万以上のユニークな画像テキストペアで包括的なアーカイブを生成する。
BMCA-CLIPは、ストリーミングを通じてBIOMEDICAデータセット上で継続的に事前トレーニングされたCLIPスタイルのモデルのスイートで、27TBのデータをローカルにダウンロードする必要がなくなる。
論文 参考訳(メタデータ) (2025-01-13T09:58:03Z) - UniMed-CLIP: Towards a Unified Image-Text Pretraining Paradigm for Diverse Medical Imaging Modalities [68.12889379702824]
対照的な学習によって訓練された視覚言語モデル(VLM)は、自然画像タスクにおいて顕著な成功を収めた。
UniMedは530万以上の画像テキストペアからなる、大規模でオープンソースのマルチモーダル医療データセットである。
我々は、6つのモダリティのための統一VLMであるUniMed-CLIPを訓練し、ゼロショット評価において顕著な利益を得た。
論文 参考訳(メタデータ) (2024-12-13T18:59:40Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - Segment Anything in Medical Images [21.43661408153244]
医用画像の普遍的分割を可能にする基盤モデルであるMedSAMについて述べる。
このモデルは、1,570,263枚の画像マスク対を持つ大規模医療画像データセット上で開発され、10種類の画像モダリティと30以上のがんタイプをカバーする。
論文 参考訳(メタデータ) (2023-04-24T17:56:12Z) - Medical diffusion on a budget: Textual Inversion for medical image generation [3.0826983115939823]
スクラッチからトレーニングするには、大きなキャプション付きデータセットと重要な計算リソースが必要である。
本研究は, 予め訓練した安定拡散モデルを医用画像モダリティに適応させることが, テキスト埋め込みの訓練によって達成可能であることを示す。
トレーニングされた埋め込みはコンパクト(1MB未満)で、プライバシー上の懸念を減らしてデータ共有を容易にする。
論文 参考訳(メタデータ) (2023-03-23T16:50:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。