論文の概要: A Data-scalable Transformer for Medical Image Segmentation:
Architecture, Model Efficiency, and Benchmark
- arxiv url: http://arxiv.org/abs/2203.00131v5
- Date: Wed, 5 Apr 2023 01:56:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-06 16:34:15.402614
- Title: A Data-scalable Transformer for Medical Image Segmentation:
Architecture, Model Efficiency, and Benchmark
- Title(参考訳): 医用画像分割のためのデータスケーリング可能な変換器:アーキテクチャ,モデル効率,ベンチマーク
- Authors: Yunhe Gao, Mu Zhou, Di Liu, Zhennan Yan, Shaoting Zhang, Dimitris N.
Metaxas
- Abstract要約: MedFormerは、一般化可能な3次元医用画像セグメンテーションのために設計されたデータスケーリング可能なトランスフォーマーである。
提案手法には, 望ましい帰納バイアス, 線形複雑度を考慮した階層的モデリング, マルチスケール特徴融合の3つの要素が組み込まれている。
- 参考スコア(独自算出の注目度): 45.543140413399506
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Transformers have demonstrated remarkable performance in natural language
processing and computer vision. However, existing vision Transformers struggle
to learn from limited medical data and are unable to generalize on diverse
medical image tasks. To tackle these challenges, we present MedFormer, a
data-scalable Transformer designed for generalizable 3D medical image
segmentation. Our approach incorporates three key elements: a desirable
inductive bias, hierarchical modeling with linear-complexity attention, and
multi-scale feature fusion that integrates spatial and semantic information
globally. MedFormer can learn across tiny- to large-scale data without
pre-training. Comprehensive experiments demonstrate MedFormer's potential as a
versatile segmentation backbone, outperforming CNNs and vision Transformers on
seven public datasets covering multiple modalities (e.g., CT and MRI) and
various medical targets (e.g., healthy organs, diseased tissues, and tumors).
We provide public access to our models and evaluation pipeline, offering solid
baselines and unbiased comparisons to advance a wide range of downstream
clinical applications.
- Abstract(参考訳): トランスフォーマーは自然言語処理とコンピュータビジョンにおいて顕著な性能を示した。
しかし、既存の視覚トランスフォーマーは限られた医療データから学ぶのに苦労し、様々な医療画像のタスクを一般化できない。
そこで本稿では,3次元医用画像セグメンテーションのためのデータスカラートランスであるmedformerを提案する。
提案手法には, 望ましい帰納バイアス, 線形複雑度を考慮した階層的モデリング, 空間情報と意味情報をグローバルに統合したマルチスケール機能融合の3要素が組み込まれている。
MedFormerは、事前トレーニングなしで、小さなから大規模なデータを学べる。
総合的な実験は、MedFormerが多彩なセグメンテーションのバックボーンとしての可能性を示し、CNNとビジョンのトランスフォーマーを、複数のモダリティ(例えばCTやMRI)と様々な医学的ターゲット(例えば、健康な臓器、疾患のある組織、腫瘍)をカバーする7つのパブリックデータセットで上回ります。
我々のモデルと評価パイプラインへの公開アクセスを提供し、幅広い下流臨床応用を進めるために、しっかりとしたベースラインとバイアスのない比較を提供する。
関連論文リスト
- MedVisionLlama: Leveraging Pre-Trained Large Language Model Layers to Enhance Medical Image Segmentation [0.8437187555622164]
本研究では、予め訓練されたLCMトランスブロックを統合することで、医用画像セグメンテーションのためのビジョントランス(ViT)の強化について検討する。
凍結LDM変換器ブロックをViTモデルエンコーダに組み込んだ手法により,セグメント化性能が大幅に向上した。
改良されたモデルでは、平均Diceスコアが0.74から0.79に向上し、精度、精度、ジャカード指数が向上した。
論文 参考訳(メタデータ) (2024-10-03T14:50:33Z) - MOSMOS: Multi-organ segmentation facilitated by medical report supervision [10.396987980136602]
マルチオーガンスーパービジョン(MOS)のための新しい事前学習・微調整フレームワークを提案する。
具体的には、まず、トレーニング前の段階で、医用画像とレポートのペアを合わせるために、グローバルコントラスト学習を導入する。
さらに,画像画素と臓器タグ間の意味的対応を暗黙的に学習するために,マルチラベル認識を活用する。
論文 参考訳(メタデータ) (2024-09-04T03:46:17Z) - C^2M-DoT: Cross-modal consistent multi-view medical report generation
with domain transfer network [67.97926983664676]
ドメイン転送ネットワーク(C2M-DoT)を用いたクロスモーダルなマルチビュー医療レポート生成を提案する。
C2M-DoTは、すべてのメトリクスで最先端のベースラインを大幅に上回る。
論文 参考訳(メタデータ) (2023-10-09T02:31:36Z) - Customizing General-Purpose Foundation Models for Medical Report
Generation [64.31265734687182]
ラベル付き医用画像-レポートペアの不足は、ディープニューラルネットワークや大規模ニューラルネットワークの開発において大きな課題となっている。
本稿では,コンピュータビジョンと自然言語処理の基盤モデル (FM) として,市販の汎用大規模事前学習モデルのカスタマイズを提案する。
論文 参考訳(メタデータ) (2023-06-09T03:02:36Z) - PHTrans: Parallelly Aggregating Global and Local Representations for
Medical Image Segmentation [7.140322699310487]
我々はPHTransと呼ばれる医用画像分割のための新しいハイブリッドアーキテクチャを提案する。
PHTransはTransformerとCNNを並列にハイブリッド化し、グローバルな特徴とローカルな特徴から階層的な表現を生成する。
論文 参考訳(メタデータ) (2022-03-09T08:06:56Z) - Transformers in Medical Imaging: A Survey [88.03790310594533]
トランスフォーマーはいくつかのコンピュータビジョン問題に適用され、最先端の結果が得られた。
医療画像はまた、局所受容野を持つCNNと比較して、グローバルな文脈を捉えられるトランスフォーマーへの関心が高まっている。
本稿では,最近提案された建築設計から未解決問題に至るまで,医療画像におけるトランスフォーマーの応用について概説する。
論文 参考訳(メタデータ) (2022-01-24T18:50:18Z) - TransMed: Transformers Advance Multi-modal Medical Image Classification [4.500880052705654]
畳み込みニューラルネットワーク(CNN)は、医療画像解析タスクで非常に競争力のあるパフォーマンスを示しています。
トランスフォーマーはコンピュータビジョンに適用され、大規模なデータセットで顕著な成功を収めた。
TransMedはCNNとトランスフォーマーの利点を組み合わせて、画像の低レベル特徴を効率的に抽出する。
論文 参考訳(メタデータ) (2021-03-10T08:57:53Z) - Medical Transformer: Gated Axial-Attention for Medical Image
Segmentation [73.98974074534497]
医用画像分割タスクにおけるトランスフォーマティブネットワークアーキテクチャの利用可能性について検討する。
セルフアテンションモジュールに追加の制御機構を導入することで,既存のアーキテクチャを拡張するGated Axial-Attentionモデルを提案する。
医療画像上で効果的にモデルを訓練するために,さらにパフォーマンスを向上させる局所的グローバルトレーニング戦略 (logo) を提案する。
論文 参考訳(メタデータ) (2021-02-21T18:35:14Z) - TransUNet: Transformers Make Strong Encoders for Medical Image
Segmentation [78.01570371790669]
医用画像のセグメンテーションは医療システムの開発に必須の前提条件である。
様々な医療画像セグメンテーションタスクにおいて、U-Netとして知られるu字型アーキテクチャがデファクトスタンダードとなっている。
医用画像セグメンテーションの強力な代替手段として,トランスフォーマーとU-Netの両方を有効活用するTransUNetを提案する。
論文 参考訳(メタデータ) (2021-02-08T16:10:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。