論文の概要: Structure-aware Unsupervised Tagged-to-Cine MRI Synthesis with Self
Disentanglement
- arxiv url: http://arxiv.org/abs/2202.12474v1
- Date: Fri, 25 Feb 2022 03:09:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-28 23:20:15.508526
- Title: Structure-aware Unsupervised Tagged-to-Cine MRI Synthesis with Self
Disentanglement
- Title(参考訳): 自己遠絡を用いた構造認識型教師なしTagged-to-Cine MRI合成
- Authors: Xiaofeng Liu, Fangxu Xing, Jerry L. Prince, Maureen Stone, Georges El
Fakhri, Jonghye Woo
- Abstract要約: 我々は、入力と合成画像の間の構造的アライメントを明示的に強制することにより、一般的なアドオン構造特徴抽出器を学習する。
具体的には、基礎となる解剖構造と画像のモダリティのアンタングル化を実現するために、新しい入力出力画像パッチ自己学習方式を提案する。
我々は1,768,416,1,560個の被検者非依存スライスタグとシネMRIを用いて、我々のネットワークをトレーニングし、検証し、テストする。
- 参考スコア(独自算出の注目度): 13.442093381065268
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cycle reconstruction regularized adversarial training -- e.g., CycleGAN,
DiscoGAN, and DualGAN -- has been widely used for image style transfer with
unpaired training data. Several recent works, however, have shown that local
distortions are frequent, and structural consistency cannot be guaranteed.
Targeting this issue, prior works usually relied on additional segmentation or
consistent feature extraction steps that are task-specific. To counter this,
this work aims to learn a general add-on structural feature extractor, by
explicitly enforcing the structural alignment between an input and its
synthesized image. Specifically, we propose a novel input-output image patches
self-training scheme to achieve a disentanglement of underlying anatomical
structures and imaging modalities. The translator and structure encoder are
updated, following an alternating training protocol. In addition, the
information w.r.t. imaging modality can be eliminated with an asymmetric
adversarial game. We train, validate, and test our network on 1,768, 416, and
1,560 unpaired subject-independent slices of tagged and cine magnetic resonance
imaging from a total of twenty healthy subjects, respectively, demonstrating
superior performance over competing methods.
- Abstract(参考訳): cycle reconstruction regularized adversarial training(サイクリングガン、ディスコガン、デュアルガンなど)は、非ペアトレーニングデータを用いた画像スタイル転送に広く使われている。
しかし、最近のいくつかの研究は局所的な歪みが頻繁であり、構造的整合性は保証できないことを示した。
この問題をターゲットにして、事前の作業は通常、タスク固有の追加のセグメンテーションや一貫性のある機能抽出ステップに依存する。
本研究の目的は、入力と合成画像との間の構造的アライメントを明示的に強制することにより、一般的なアドオン構造特徴抽出器を学習することである。
具体的には, 基礎となる解剖学的構造と画像モダリティの不一致を解消するために, 入力出力画像パッチの自己学習方式を提案する。
トランスレータと構造エンコーダは、交互トレーニングプロトコルに従って更新される。
また、非対称対角ゲームにより、画像モダリティに関する情報w.r.t.を排除できる。
1,768名,416名,および1,560名の被験者非依存スライスを,それぞれ健常者20名からトレーニング,検証,試験を行い,競合法よりも優れた性能を示した。
関連論文リスト
- Structural Attention: Rethinking Transformer for Unpaired Medical Image Synthesis [25.531060259709157]
Transformerベースのモデルは、長距離依存関係をキャプチャする機能のおかげで、画像翻訳タスクに優れています。
本稿では,強い帰納バイアスを欠くトランスフォーマーが,ペアデータがない場合に最適でない解に収束できることを実証的に示す。
UNet Structured Transformer (UNest) は, 医用画像合成のための構造的帰納バイアスを取り入れた新しいアーキテクチャである。
論文 参考訳(メタデータ) (2024-06-27T07:59:25Z) - Analysis of Deep Image Prior and Exploiting Self-Guidance for Image
Reconstruction [13.277067849874756]
DIPがアンダーサンプドイメージング計測からどのように情報を回収するかを検討する。
ネットワーク重みと入力の両方を同時に最適化する自己駆動型再構築プロセスを導入する。
提案手法は,ネットワーク入力画像と再構成画像の両方の堅牢かつ安定した関節推定を可能にする,新しいデノイザ正規化項を組み込んだものである。
論文 参考訳(メタデータ) (2024-02-06T15:52:23Z) - Disruptive Autoencoders: Leveraging Low-level features for 3D Medical
Image Pre-training [51.16994853817024]
本研究は、3Dラジオグラフィ画像のための効果的な事前学習フレームワークの設計に焦点をあてる。
ローカルマスキングと低レベルの摂動の組み合わせによって生成された破壊から、オリジナルのイメージを再構築しようとする事前トレーニングフレームワークであるDisruptive Autoencodersを紹介する。
提案する事前トレーニングフレームワークは、複数のダウンストリームタスクでテストされ、最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-07-31T17:59:42Z) - Structure-aware registration network for liver DCE-CT images [50.28546654316009]
セグメント化誘導深層登録網に関連臓器の構造情報を組み込んだ構造認識型登録手法を提案する。
提案手法は,最新技術よりも高い登録精度を達成し,解剖学的構造を効果的に維持することができる。
論文 参考訳(メタデータ) (2023-03-08T14:08:56Z) - Attentive Symmetric Autoencoder for Brain MRI Segmentation [56.02577247523737]
視覚変換器(ViT)をベースとした3次元脳MRIセグメンテーションタスクのための新しいアテンテーティブシンメトリオートエンコーダを提案する。
事前学習の段階では、提案するオートエンコーダがより注意を払って、勾配測定値に従って情報パッチを再構築する。
実験の結果,提案手法は最先端の自己教師付き学習法や医用画像分割モデルよりも優れていた。
論文 参考訳(メタデータ) (2022-09-19T09:43:19Z) - Contrastive Image Synthesis and Self-supervised Feature Adaptation for
Cross-Modality Biomedical Image Segmentation [8.772764547425291]
CISFAは、画像ドメインの翻訳と、クロスモーダルなバイオメディカルなイメージセグメンテーションのための教師なしの機能適応に基づいている。
我々は,片側生成モデルを用いて,入力画像のサンプルパッチと対応する合成画像との重み付けパッチワイドコントラスト損失を付加する。
腹腔・全心に対するCTおよびMRI画像を含むセグメンテーションタスクについて検討した。
論文 参考訳(メタデータ) (2022-07-27T01:49:26Z) - InDuDoNet+: A Model-Driven Interpretable Dual Domain Network for Metal
Artifact Reduction in CT Images [53.4351366246531]
InDuDoNet+と呼ばれる新しい解釈可能な二重ドメインネットワークを構築し、CT画像の微細な埋め込みを行う。
異なる組織間のCT値を分析し,InDuDoNet+の事前観測ネットワークにマージすることで,その一般化性能を著しく向上させる。
論文 参考訳(メタデータ) (2021-12-23T15:52:37Z) - Towards a Unified Foundation Model: Jointly Pre-Training Transformers on
Unpaired Images and Text [93.11954811297652]
我々は、モダリティ固有のトークン化器、共有トランスフォーマーエンコーダ、タスク固有の出力ヘッドからなる統一型トランスフォーマーを設計する。
我々は、個別に訓練されたBERTモデルとViTモデルを教師として採用し、知識蒸留を適用して、より正確な監視信号を提供する。
実験の結果、統合基盤変換器は視覚のみのタスクとテキストのみのタスクの両方で驚くほどうまく機能することがわかった。
論文 参考訳(メタデータ) (2021-12-14T00:20:55Z) - Structure Destruction and Content Combination for Face Anti-Spoofing [14.413900076141093]
アンチ・スプーフィング研究は、実際の人物と多様な攻撃タイプを識別するために、オリジナル画像に隠された手がかりを発掘する。
これらの手法はトレーニングデータセット全体の記憶に固執し、非ホモロジー領域分布に対する感受性を示す。
これら2つの模倣に対処するために,構造破壊モジュールとコンテンツ結合モジュールを提案する。
論文 参考訳(メタデータ) (2021-07-22T13:08:46Z) - Towards Unsupervised Learning for Instrument Segmentation in Robotic
Surgery with Cycle-Consistent Adversarial Networks [54.00217496410142]
本稿では、入力された内視鏡画像と対応するアノテーションとのマッピングを学習することを目的として、未ペア画像から画像への変換を提案する。
当社のアプローチでは,高価なアノテーションを取得することなく,イメージセグメンテーションモデルをトレーニングすることが可能です。
提案手法をEndovis 2017チャレンジデータセットで検証し,教師付きセグメンテーション手法と競合することを示す。
論文 参考訳(メタデータ) (2020-07-09T01:39:39Z) - Image Embedded Segmentation: Uniting Supervised and Unsupervised
Objectives for Segmenting Histopathological Images [0.0]
本稿では,意味組織分割のための完全畳み込みネットワークを学習するための新しい正規化手法を提案する。
これは教師なし学習(イメージ再構成)の利点をネットワークトレーニングに頼っている。
我々の実験は、これらのデータセットのセグメンテーション結果が、データセットのセグメンテーション結果よりも優れていることを示した。
論文 参考訳(メタデータ) (2020-01-30T08:09:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。