論文の概要: Breaking the Dilemma of Medical Image-to-image Translation
- arxiv url: http://arxiv.org/abs/2110.06465v1
- Date: Wed, 13 Oct 2021 02:59:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-15 02:20:50.918383
- Title: Breaking the Dilemma of Medical Image-to-image Translation
- Title(参考訳): 医用画像・画像翻訳のジレンマを破る
- Authors: Lingke Kong, Chenyu Lian, Detian Huang, Zhenjiang Li, Yanle Hu, Qichao
Zhou
- Abstract要約: 医用画像・画像翻訳のための新しい教師なしモード RegGAN を提案する。
RegGANは「ロス補正」の理論に基づいている
我々はRegGANをいくつかの最新画像変換手法に組み込んで,RegGANをこれらの手法と簡単に組み合わせて性能を向上できることを実証した。
- 参考スコア(独自算出の注目度): 5.293201397955065
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Supervised Pix2Pix and unsupervised Cycle-consistency are two modes that
dominate the field of medical image-to-image translation. However, neither
modes are ideal. The Pix2Pix mode has excellent performance. But it requires
paired and well pixel-wise aligned images, which may not always be achievable
due to respiratory motion or anatomy change between times that paired images
are acquired. The Cycle-consistency mode is less stringent with training data
and works well on unpaired or misaligned images. But its performance may not be
optimal. In order to break the dilemma of the existing modes, we propose a new
unsupervised mode called RegGAN for medical image-to-image translation. It is
based on the theory of "loss-correction". In RegGAN, the misaligned target
images are considered as noisy labels and the generator is trained with an
additional registration network to fit the misaligned noise distribution
adaptively. The goal is to search for the common optimal solution to both
image-to-image translation and registration tasks. We incorporated RegGAN into
a few state-of-the-art image-to-image translation methods and demonstrated that
RegGAN could be easily combined with these methods to improve their
performances. Such as a simple CycleGAN in our mode surpasses latest NICEGAN
even though using less network parameters. Based on our results, RegGAN
outperformed both Pix2Pix on aligned data and Cycle-consistency on misaligned
or unpaired data. RegGAN is insensitive to noises which makes it a better
choice for a wide range of scenarios, especially for medical image-to-image
translation tasks in which well pixel-wise aligned data are not available
- Abstract(参考訳): Pix2Pixとunsupervised Cycle-Consistencyは、医用画像と画像の翻訳の分野を支配する2つのモードである。
しかし、どちらのモードも理想的ではない。
Pix2Pixモードには優れたパフォーマンスがある。
しかし、ピクセル順に整列した画像が必要であり、それは常に呼吸運動や、ペア画像が取得される時間の間の解剖学的変化のために実現可能であるとは限らない。
Cycle-Consistencyモードはトレーニングデータに縛られないため、不適切な画像や不一致の画像でもうまく動作する。
しかし、その性能は最適ではないかもしれない。
既存のモードのジレンマを解消するために,医療画像から画像への翻訳のためのRegGANと呼ばれる新しい教師なしモードを提案する。
これは「ロス補正」の理論に基づいている。
RegGANでは、不整合ターゲット画像はノイズラベルと見なされ、生成装置は、不整合ノイズ分布を適応的に適合させるために、追加の登録ネットワークで訓練される。
目標は、画像から画像への変換と登録の両方に共通する最適解を探すことである。
我々はRegGANをいくつかの最新画像変換手法に組み込んで,RegGANをこれらの手法と簡単に組み合わせて性能を向上できることを実証した。
私たちのモードの単純なCycleGANは、ネットワークパラメータが少なくても、最新のNICEGANを超えます。
結果から,regan は pix2pix をアライメントデータで上回り,不アライメントデータやアンペアデータのサイクル一貫性を上回った。
RegGANはノイズに敏感で、幅広いシナリオ、特に画像から画像への変換タスクにおいて、ピクセルワイドなデータが利用できない場合に、より優れた選択をすることができる。
関連論文リスト
- Reliable Multi-modal Medical Image-to-image Translation Independent of Pixel-wise Aligned Data [2.328200803738193]
我々は、画素ワイド・アライメント・データ(MIIA)に依存しない、新しいマルチモーダルな医用画像から画像への変換モデルを開発する。
MITIAは、他の6つの最先端画像から画像への翻訳方法と比較して、優れたパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-08-26T13:45:58Z) - Dual Structure-Aware Image Filterings for Semi-supervised Medical Image Segmentation [11.663088388838073]
半教師付き医用画像分割のための画像レベルのバリエーションとして,新しい二重構造対応画像フィルタリング(DSAIF)を提案する。
構造を意識したツリーベース画像表現において, 画像のフィルタリングを簡略化するコネクテッドフィルタリングにより, 二重コントラスト不変の Max-tree と Min-tree の表現を利用する。
提案したDSAIFを相互に教師付きネットワークに適用することにより、ラベルなし画像上の誤った予測のコンセンサスを減少させる。
論文 参考訳(メタデータ) (2023-12-12T13:44:53Z) - CycleNet: Rethinking Cycle Consistency in Text-Guided Diffusion for
Image Manipulation [57.836686457542385]
拡散モデル(DM)は画像合成タスクのブレークスルーを実現するが、一貫したイメージ・ツー・イメージ(I2I)翻訳のための直感的なインタフェースは欠如している。
本稿では,画像操作を正規化するためのDMにサイクル一貫性を組み込んだ,新しくてシンプルな手法であるCyclenetを紹介する。
論文 参考訳(メタデータ) (2023-10-19T21:32:21Z) - Rethinking the Paradigm of Content Constraints in Unpaired
Image-to-Image Translation [9.900050049833986]
本稿では,パッチレベルの特徴の潜在空間における表現的類似性を制約することにより,コンテンツ管理のシンプルかつ効率的な方法であるEnCoを提案する。
類似性関数に対しては、I2Iタスクで広く使われている対照的な損失ではなく、単純なMSE損失を用いる。
さらに, 識別者によるサンプリングにおける役割を再考し, ランダムサンプリングの代替として, DAG(Disdisnative attention-guided)パッチサンプリング戦略を提案する。
論文 参考訳(メタデータ) (2022-11-20T04:39:57Z) - What can we learn about a generated image corrupting its latent
representation? [57.1841740328509]
GANのボトルネックにおける潜在表現に基づいて画像品質を予測できるという仮説を考察する。
遅延表現を雑音で破壊し、複数の出力を生成することでこれを実現できる。
論文 参考訳(メタデータ) (2022-10-12T14:40:32Z) - Refign: Align and Refine for Adaptation of Semantic Segmentation to
Adverse Conditions [78.71745819446176]
Refignは、ドメイン間の通信を利用する自己学習ベースのUDAメソッドへの汎用的な拡張である。
Refign は,(1) 不確実性を認識した高密度マッチングネットワークを用いて,正常条件画像と対応する悪条件画像とを整列させ,(2) 適応ラベル補正機構を用いて正常予測で悪条件予測を精査する。
このアプローチでは、追加のトレーニングパラメータや、トレーニングのみの計算オーバーヘッドの最小化は導入されず、任意の自己学習ベースのUDAメソッドを改善するためにドロップイン拡張として使用することができる。
論文 参考訳(メタデータ) (2022-07-14T11:30:38Z) - FedMed-ATL: Misaligned Unpaired Brain Image Synthesis via Affine
Transform Loss [58.58979566599889]
脳画像合成のための新しい自己教師型学習(FedMed)を提案する。
アフィン変換損失(ATL)は、プライバシー法に違反することなく、ひどく歪んだ画像を使用するように定式化された。
提案手法は, 極めて不整合かつ不整合なデータ設定下での合成結果の品質の両方において, 高度な性能を示す。
論文 参考訳(メタデータ) (2022-01-29T13:45:39Z) - Simple and Efficient Unpaired Real-world Super-Resolution using Image
Statistics [0.11714813224840924]
本稿では,実世界のSRネットワークの簡易かつ効率的なトレーニング方法を提案する。
我々のフレームワークは2つのGANで構成されており、1つはHR画像をLR画像に変換するためのもので、もう1つはLR画像をHRに変換するためのものである。
我々は,提案したデータサンプリング戦略を用いて,GANを用いた未ペア画像翻訳を効率的に学習できると主張している。
論文 参考訳(メタデータ) (2021-09-19T06:10:33Z) - Coarse-to-Fine Gaze Redirection with Numerical and Pictorial Guidance [74.27389895574422]
本稿では,数値誘導と画像誘導の両方を利用した新しい視線リダイレクトフレームワークを提案する。
提案手法は,画像品質とリダイレクト精度の両方の観点から,最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2020-04-07T01:17:27Z) - Semi-supervised Learning for Few-shot Image-to-Image Translation [89.48165936436183]
本稿では,SEMITと呼ばれる画像翻訳のための半教師付き手法を提案する。
提案手法は,ソースラベルの10%以下を用いて,4つの異なるデータセットに対して優れた結果を得る。
論文 参考訳(メタデータ) (2020-03-30T22:46:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。