論文の概要: EDMAE: An Efficient Decoupled Masked Autoencoder for Standard View
Identification in Pediatric Echocardiography
- arxiv url: http://arxiv.org/abs/2302.13869v3
- Date: Thu, 3 Aug 2023 07:46:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-04 17:16:07.301728
- Title: EDMAE: An Efficient Decoupled Masked Autoencoder for Standard View
Identification in Pediatric Echocardiography
- Title(参考訳): EDMAE:小児心エコー図における高効率非結合型マスク付きオートエンコーダ
- Authors: Yiman Liu, Xiaoxiang Han, Tongtong Liang, Bin Dong, Jiajun Yuan,
Menghan Hu, Qiaohong Liu, Jiangang Chen, Qingli Li, Yuqi Zhang
- Abstract要約: The Efficient Decoupled Masked Autoencoder (EDMAE)は、小児心エコー図における標準視像を認識するための新しい自己教師型手法である。
EDMAEは、MAEエンコーダのViT構造の代わりに純粋な畳み込み演算を使用する。
提案手法は,27の標準心エコー図で高い分類精度を実現する。
- 参考スコア(独自算出の注目度): 16.215207742732893
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces the Efficient Decoupled Masked Autoencoder (EDMAE), a
novel self-supervised method for recognizing standard views in pediatric
echocardiography. EDMAE introduces a new proxy task based on the
encoder-decoder structure. The EDMAE encoder is composed of a teacher and a
student encoder. The teacher encoder extracts the potential representation of
the masked image blocks, while the student encoder extracts the potential
representation of the visible image blocks. The loss is calculated between the
feature maps output by the two encoders to ensure consistency in the latent
representations they extract. EDMAE uses pure convolution operations instead of
the ViT structure in the MAE encoder. This improves training efficiency and
convergence speed. EDMAE is pre-trained on a large-scale private dataset of
pediatric echocardiography using self-supervised learning, and then fine-tuned
for standard view recognition. The proposed method achieves high classification
accuracy in 27 standard views of pediatric echocardiography. To further verify
the effectiveness of the proposed method, the authors perform another
downstream task of cardiac ultrasound segmentation on the public dataset CAMUS.
The experimental results demonstrate that the proposed method outperforms some
popular supervised and recent self-supervised methods, and is more competitive
on different downstream tasks.
- Abstract(参考訳): 本稿では,小児心エコー図における標準視の認識のための自己教師型手法EDMAEを紹介する。
EDMAEはエンコーダ-デコーダ構造に基づいた新しいプロキシタスクを導入した。
EDMAEエンコーダは教師と学生エンコーダからなる。
教師エンコーダはマスク画像ブロックの潜在的な表現を抽出し、学生エンコーダは可視画像ブロックの潜在的な表現を抽出する。
損失は、2つのエンコーダが出力する特徴写像間で計算され、抽出した潜在表現の一貫性が保証される。
EDMAEは、MAEエンコーダのViT構造の代わりに純粋な畳み込み演算を使用する。
これにより、訓練効率と収束速度が向上する。
EDMAEは、自己教師付き学習を用いて、小児心エコー図の大規模プライベートデータセット上で事前訓練され、次に標準視認のために微調整される。
提案手法は,27の標準心エコー図で高い分類精度を実現する。
提案手法の有効性をさらに検証するため, 著者らは, パブリックデータセットCAMUS上で, 心臓超音波セグメンテーションの下流課題を実行する。
実験結果から,提案手法は人気の高い教師付き手法や近年の自己教師型手法よりも優れており,下流タスクの競争力が高いことが示された。
関連論文リスト
- Bringing Masked Autoencoders Explicit Contrastive Properties for Point Cloud Self-Supervised Learning [116.75939193785143]
画像領域における視覚変換器(ViT)のコントラスト学習(CL)は、従来の畳み込みバックボーンのCLに匹敵する性能を達成した。
ViTで事前訓練した3Dポイントクラウドでは、マスク付きオートエンコーダ(MAE)モデリングが主流である。
論文 参考訳(メタデータ) (2024-07-08T12:28:56Z) - DopUS-Net: Quality-Aware Robotic Ultrasound Imaging based on Doppler
Signal [48.97719097435527]
DopUS-Netはドップラー画像とBモード画像を組み合わせることで、小血管のセグメンテーション精度と堅牢性を高める。
動脈再同定モジュールは、リアルタイムセグメンテーション結果を質的に評価し、拡張ドップラー画像に対するプローブポーズを自動的に最適化する。
論文 参考訳(メタデータ) (2023-05-15T18:19:29Z) - Rethinking Boundary Detection in Deep Learning Models for Medical Image
Segmentation [27.322629156662547]
Convolution, Transformer, Operator (CTO) と呼ばれる新しいネットワークアーキテクチャを提案する。
CTOは、高い認識精度を達成するために、畳み込みニューラルネットワーク(CNN)、ビジョントランスフォーマー(ViT)、および明示的な境界検出演算子を組み合わせている。
提案手法の性能を6つの挑戦的医用画像セグメンテーションデータセットで評価した。
論文 参考訳(メタデータ) (2023-05-01T06:13:08Z) - Attentive Symmetric Autoencoder for Brain MRI Segmentation [56.02577247523737]
視覚変換器(ViT)をベースとした3次元脳MRIセグメンテーションタスクのための新しいアテンテーティブシンメトリオートエンコーダを提案する。
事前学習の段階では、提案するオートエンコーダがより注意を払って、勾配測定値に従って情報パッチを再構築する。
実験の結果,提案手法は最先端の自己教師付き学習法や医用画像分割モデルよりも優れていた。
論文 参考訳(メタデータ) (2022-09-19T09:43:19Z) - Masked Autoencoders that Listen [79.99280830830854]
本稿では,画像ベースMasked Autoencoders(MAE)の音声スペクトログラムからの自己教師型表現学習への簡単な拡張について検討する。
MAEにおけるTransformer encoder-decoderの設計に続いて、Audio-MAEはまず、ハイマスキング比でオーディオスペクトログラムパッチを符号化し、エンコーダ層を介して非マスキングトークンのみを供給します。
次にデコーダは、入力スペクトログラムを再構築するために、マスクトークンでパッドされたエンコードされたコンテキストを再注文し、デコードする。
論文 参考訳(メタデータ) (2022-07-13T17:59:55Z) - LoopITR: Combining Dual and Cross Encoder Architectures for Image-Text
Retrieval [117.15862403330121]
共同学習のためのネットワークにおいて,デュアルエンコーダとクロスエンコーダを組み合わせたLoopITRを提案する。
具体的には、二重エンコーダをクロスエンコーダに強陰性を与え、より識別性の高いクロスエンコーダを用いてその予測を二重エンコーダに戻す。
論文 参考訳(メタデータ) (2022-03-10T16:41:12Z) - Scribble-Supervised Medical Image Segmentation via Dual-Branch Network
and Dynamically Mixed Pseudo Labels Supervision [15.414578073908906]
単純で効率的なスクリブル教師付き画像分割法を提案し,それを心臓MRIセグメント化に適用する。
このスクリブル・インスペクションと補助擬似ラベル・インスペクションを組み合わせることで、デュアルブランチ・ネットワークは、スクリブル・アノテーションからエンドツーエンドまで効率的に学習することができる。
論文 参考訳(メタデータ) (2022-03-04T02:50:30Z) - Context Autoencoder for Self-Supervised Representation Learning [64.63908944426224]
符号化された表現空間で予測を行うことにより、符号化器を事前訓練する。
ネットワークはエンコーダ/レグレッサ/デコーダアーキテクチャである。
下流タスクにおける転送性能の向上によるCAEの有効性を実証する。
論文 参考訳(メタデータ) (2022-02-07T09:33:45Z) - Unsupervised multi-latent space reinforcement learning framework for
video summarization in ultrasound imaging [0.0]
新型コロナウイルス(COVID-19)のパンデミックは、超音波スキャンのトリアージを高速化するツールの必要性を強調している。
提案手法は,この方向への一歩である。
そこで我々は,新しい報酬を伴う教師なし強化学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-03T04:50:35Z) - EncoderMI: Membership Inference against Pre-trained Encoders in
Contrastive Learning [27.54202989524394]
コントラスト学習によって事前訓練された画像エンコーダに対する最初のメンバーシップ推論手法であるMIを提案する。
複数のデータセットで事前学習した画像エンコーダと、OpenAIが収集した4億(画像、テキスト)のペアで事前学習したContrastive Language- Image Pre-training (CLIP)画像エンコーダの評価を行った。
論文 参考訳(メタデータ) (2021-08-25T03:00:45Z) - Atrous Residual Interconnected Encoder to Attention Decoder Framework
for Vertebrae Segmentation via 3D Volumetric CT Images [1.8146155083014204]
本稿では,3次元容積CT画像を用いた新しい椎骨分割法を提案する。
提案モデルは,ミニバッチトレーニング性能の最適化にレイヤ正規化を用いた,エンコーダからデコーダへの構造に基づく。
実験の結果,本モデルは他の医学的意味セグメンテーション法と比較して競争力が得られた。
論文 参考訳(メタデータ) (2021-04-08T12:09:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。