論文の概要: Disentangling A Single MR Modality
- arxiv url: http://arxiv.org/abs/2205.04982v1
- Date: Tue, 10 May 2022 15:40:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-12 18:09:24.291547
- Title: Disentangling A Single MR Modality
- Title(参考訳): 単一のmrモダリティを否定する
- Authors: Lianrui Zuo, Yihao Liu, Yuan Xue, Shuo Han, Murat Bilgel, Susan M.
Resnick, Jerry L. Prince, Aaron Carass
- Abstract要約: 本稿では,単一モード磁気共鳴画像から理論的・実用的に優れた歪みを学習する新しい枠組みを提案する。
歪みを定量的に評価する新しい情報に基づく計量法を提案する。
- 参考スコア(独自算出の注目度): 15.801648254480487
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Disentangling anatomical and contrast information from medical images has
gained attention recently, demonstrating benefits for various image analysis
tasks. Current methods learn disentangled representations using either paired
multi-modal images with the same underlying anatomy or auxiliary labels (e.g.,
manual delineations) to provide inductive bias for disentanglement. However,
these requirements could significantly increase the time and cost in data
collection and limit the applicability of these methods when such data are not
available. Moreover, these methods generally do not guarantee disentanglement.
In this paper, we present a novel framework that learns theoretically and
practically superior disentanglement from single modality magnetic resonance
images. Moreover, we propose a new information-based metric to quantitatively
evaluate disentanglement. Comparisons over existing disentangling methods
demonstrate that the proposed method achieves superior performance in both
disentanglement and cross-domain image-to-image translation tasks.
- Abstract(参考訳): 近年,医学画像から解剖学的・コントラスト的情報を遠ざけることが注目され,様々な画像解析タスクのメリットが示された。
現在の手法では、同一の解剖学を持つ対のマルチモーダル画像または補助ラベル(例えば手動のデライン化)を使用して不等角表現を学習し、不等角化に対する帰納的バイアスを与える。
しかし、これらの要件は、データ収集の時間とコストを大幅に増加させ、そのようなデータが利用できない場合に、これらのメソッドの適用性を制限する可能性がある。
さらに、これらの手法は一般に乱れを保証しない。
本稿では,単一モード磁気共鳴画像から理論的・実用的に優れた歪みを学習する新しい枠組みを提案する。
さらに,歪みを定量的に評価する新しい情報ベース指標を提案する。
既存の切り離し手法との比較により,提案手法は切り離しとクロスドメイン画像変換の両タスクにおいて優れた性能を発揮することが示された。
関連論文リスト
- Harmonizing Pathological and Normal Pixels for Pseudo-healthy Synthesis [68.5287824124996]
そこで本研究では,新しいタイプの識別器であるセグメンタを提案し,病変の正確な特定と擬似健康画像の視覚的品質の向上を図っている。
医用画像強調に生成画像を適用し,低コントラスト問題に対処するために拡張結果を利用する。
BraTSのT2モダリティに関する総合的な実験により、提案手法は最先端の手法よりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2022-03-29T08:41:17Z) - Deblurring via Stochastic Refinement [85.42730934561101]
条件付き拡散モデルに基づくブラインドデブロアリングのための代替フレームワークを提案する。
提案手法は,PSNRなどの歪み指標の点で競合する。
論文 参考訳(メタデータ) (2021-12-05T04:36:09Z) - Reference-guided Pseudo-Label Generation for Medical Semantic
Segmentation [25.76014072179711]
本稿では,半教師付きセマンティックセグメンテーションのための管理手法を提案する。
少数のラベル付き画像を参照材料として使用し、未ラベル画像中の画素と参照集合内の最適な画素のセマンティクスを一致させる。
我々は,X線解剖学的セグメンテーションにおける標準完全教師付きモデルと同じ性能を達成するが,ラベル付き画像の95%は少ない。
論文 参考訳(メタデータ) (2021-12-01T12:21:24Z) - Learning Discriminative Shrinkage Deep Networks for Image Deconvolution [122.79108159874426]
本稿では,これらの用語を暗黙的にモデル化する識別的縮小関数を学習することで,効果的に非盲検デコンボリューション手法を提案する。
実験結果から,提案手法は最先端の手法に対して,効率と精度の点で好適に動作することがわかった。
論文 参考訳(メタデータ) (2021-11-27T12:12:57Z) - Multi-modal Aggregation Network for Fast MR Imaging [85.25000133194762]
我々は,完全サンプル化された補助モダリティから補完表現を発見できる,MANetという新しいマルチモーダル・アグリゲーション・ネットワークを提案する。
我々のMANetでは,完全サンプリングされた補助的およびアンアンサンプされた目標モダリティの表現は,特定のネットワークを介して独立に学習される。
私たちのMANetは、$k$-spaceドメインの周波数信号を同時に回復できるハイブリッドドメイン学習フレームワークに従います。
論文 参考訳(メタデータ) (2021-10-15T13:16:59Z) - Cross-Modal Contrastive Learning for Abnormality Classification and
Localization in Chest X-rays with Radiomics using a Feedback Loop [63.81818077092879]
医療画像のためのエンドツーエンドのセミスーパーバイスドクロスモーダルコントラスト学習フレームワークを提案する。
まず、胸部X線を分類し、画像特徴を生成するために画像エンコーダを適用する。
放射能の特徴は別の専用エンコーダを通過し、同じ胸部x線から生成された画像の特徴の正のサンプルとして機能する。
論文 参考訳(メタデータ) (2021-04-11T09:16:29Z) - Representation Disentanglement for Multi-modal MR Analysis [15.498244253687337]
近年の研究では、マルチモーダルディープラーニング分析は、画像から解剖学的(形状)およびモダリティ(外観)表現を明示的に切り離すことから恩恵を受けることができることが示唆されている。
対象とモダリティをまたいだ表現の類似性関係を正規化するマージン損失を提案する。
頑健なトレーニングを実現するため,全てのモダリティの画像を符号化する単一モデルの設計のために条件付き畳み込みを導入する。
論文 参考訳(メタデータ) (2021-02-23T02:08:38Z) - Coupled Feature Learning for Multimodal Medical Image Fusion [42.23662451234756]
マルチモーダル画像融合は、取得した画像と異なるセンサーの関連情報を組み合わせることを目指しています。
本稿では,結合辞書学習に基づく新しいマルチモーダル画像融合法を提案する。
論文 参考訳(メタデータ) (2021-02-17T09:13:28Z) - U-Noise: Learnable Noise Masks for Interpretable Image Segmentation [0.7646713951724011]
下流モデルの性能を損なうことなく,ノイズが適用可能な画像の領域を学習することにより,画像分割モデルを解釈する新しい手法を提案する。
また,他の手法と異なり,不明瞭な画像に対する下流性能に基づいて,解釈可能性モデルを定量的に評価できることを示す。
論文 参考訳(メタデータ) (2021-01-14T18:50:06Z) - Generative Adversarial U-Net for Domain-free Medical Image Augmentation [49.72048151146307]
注釈付き医用画像の不足は、医用画像コンピューティングの分野における最大の課題の1つだ。
本稿では,生成逆U-Netという新しい生成手法を提案する。
当社の新しいモデルは、ドメインフリーで、さまざまな医療画像に汎用性があります。
論文 参考訳(メタデータ) (2021-01-12T23:02:26Z) - Combining Similarity and Adversarial Learning to Generate Visual
Explanation: Application to Medical Image Classification [0.0]
学習フレームワークを活用して視覚的説明法を作成する。
文献のメトリクスを用いることで,この手法は最先端のアプローチよりも優れています。
大規模な胸部X線データベース上でのアプローチを検証する。
論文 参考訳(メタデータ) (2020-12-14T08:34:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。