論文の概要: Structure Unbiased Adversarial Model for Medical Image Segmentation
- arxiv url: http://arxiv.org/abs/2205.12857v4
- Date: Tue, 30 Jul 2024 13:29:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-31 23:19:20.203770
- Title: Structure Unbiased Adversarial Model for Medical Image Segmentation
- Title(参考訳): 医用画像分割のための構造的不偏逆モデル
- Authors: Tianyang Zhang, Shaoming Zheng, Jun Cheng, Xi Jia, Joseph Bartlett, Xinxing Cheng, Huazhu Fu, Zhaowen Qiu, Jiang Liu, Jinming Duan,
- Abstract要約: 我々は、生成した画像の構造がターゲットデータセットに類似していることを保証するために、新しい画像から画像への変換問題を定式化する。
本稿では, 強度差と構造差の両面を考慮に入れた, 単純かつ強力な構造Unbiased Adversarial (SUA) ネットワークを提案する。
実験結果から,SUA法は複数のデータセット間の強度分布と構造的内容の両方を転送できることがわかった。
- 参考スコア(独自算出の注目度): 36.3533698401291
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative models have been widely proposed in image recognition to generate more images where the distribution is similar to that of the real ones. It often introduces a discriminator network to differentiate the real data from the generated ones. Such models utilise a discriminator network tasked with differentiating style transferred data from data contained in the target dataset. However in doing so the network focuses on discrepancies in the intensity distribution and may overlook structural differences between the datasets. In this paper we formulate a new image-to-image translation problem to ensure that the structure of the generated images is similar to that in the target dataset. We propose a simple, yet powerful Structure-Unbiased Adversarial (SUA) network which accounts for both intensity and structural differences between the training and test sets when performing image segmentation. It consists of a spatial transformation block followed by an intensity distribution rendering module. The spatial transformation block is proposed to reduce the structure gap between the two images, and also produce an inverse deformation field to warp the final segmented image back. The intensity distribution rendering module then renders the deformed structure to an image with the target intensity distribution. Experimental results show that the proposed SUA method has the capability to transfer both intensity distribution and structural content between multiple datasets.
- Abstract(参考訳): 画像認識において、分布が実際のものと類似した画像を生成するために、生成モデルが広く提案されている。
しばしば、生成されたデータと実際のデータを区別する差別化ネットワークを導入する。
このようなモデルでは、ターゲットデータセットに含まれるデータからスタイル転送されたデータを識別するディミネータネットワークを利用する。
しかし、ネットワークは強度分布の相違に重点を置いており、データセット間の構造的差異を見落としている可能性がある。
本稿では,生成した画像の構造がターゲットデータセットに類似していることを保証するために,新たな画像間翻訳問題を定式化する。
画像セグメンテーションを行う際のトレーニングセットとテストセットの強度と構造的差異を考慮に入れた,シンプルで強力な構造的アンバシッド・アドバイザリアル(SUA)ネットワークを提案する。
空間変換ブロックと、強度分布レンダリングモジュールから構成される。
空間変換ブロックは、2つの画像間の構造的ギャップを小さくし、また、最終セグメント画像の逆方向の変形場を生成するために提案される。
そして、強度分布レンダリングモジュールは、目標強度分布を有する画像に変形した構造を描画する。
実験結果から,SUA法は複数のデータセット間の強度分布と構造的内容の両方を転送できることがわかった。
関連論文リスト
- Unifying Visual and Semantic Feature Spaces with Diffusion Models for Enhanced Cross-Modal Alignment [20.902935570581207]
本稿では,マルチモーダルアライメント・アンド・リコンストラクション・ネットワーク(MARNet)を導入し,視覚ノイズに対するモデルの耐性を高める。
MARNetは、異なるドメイン間で情報をスムーズかつ安定的にブレンドする、クロスモーダル拡散再構成モジュールを含んでいる。
2つのベンチマークデータセットであるVireo-Food172とIngredient-101で実施された実験は、MARNetがモデルによって抽出された画像情報の品質を効果的に改善することを示した。
論文 参考訳(メタデータ) (2024-07-26T16:30:18Z) - EmerDiff: Emerging Pixel-level Semantic Knowledge in Diffusion Models [52.3015009878545]
我々は、追加の訓練をすることなく、きめ細かなセグメンテーションマップを生成できる画像セグメンタを開発した。
低次元特徴写像の空間的位置と画像画素間の意味的対応を同定する。
大規模な実験では、生成したセグメンテーションマップがよく説明され、画像の細部を捉えることが示されている。
論文 参考訳(メタデータ) (2024-01-22T07:34:06Z) - Bayesian Unsupervised Disentanglement of Anatomy and Geometry for Deep Groupwise Image Registration [50.62725807357586]
本稿では,マルチモーダル群画像登録のための一般ベイズ学習フレームワークを提案する。
本稿では,潜在変数の推論手順を実現するために,新しい階層的変分自動符号化アーキテクチャを提案する。
心臓、脳、腹部の医療画像から4つの異なるデータセットを含む,提案された枠組みを検証する実験を行った。
論文 参考訳(メタデータ) (2024-01-04T08:46:39Z) - Affine-Transformation-Invariant Image Classification by Differentiable
Arithmetic Distribution Module [8.125023712173686]
畳み込みニューラルネットワーク(CNN)は画像分類において有望な結果を得た。
CNNは回転、翻訳、フリップ、シャッフルなどのアフィン変換に弱い。
本研究では,分散学習手法を取り入れた,より堅牢な代替手法を提案する。
論文 参考訳(メタデータ) (2023-09-01T22:31:32Z) - DiffDis: Empowering Generative Diffusion Model with Cross-Modal
Discrimination Capability [75.9781362556431]
本稿では,拡散過程下での1つのフレームワークに,モダクティブと差別的事前学習を統一するDiffDisを提案する。
DiffDisは画像生成タスクと画像テキスト識別タスクの両方において単一タスクモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-18T05:03:48Z) - Unsupervised Multimodal Change Detection Based on Structural
Relationship Graph Representation Learning [40.631724905575034]
教師なしマルチモーダル変化検出は、時間に敏感な緊急アプリケーションにおいて重要な役割を果たす、実用的で困難なトピックである。
マルチモーダル画像における2種類のモダリティ非依存構造関係を利用する。
本稿では,2つの構造関係の類似性を測定するための構造関係グラフ表現学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-03T13:55:08Z) - Unsupervised Domain Adaptation with Histogram-gated Image Translation
for Delayered IC Image Analysis [2.720699926154399]
Histogram-gated Image Translation (HGIT)は、特定のソースデータセットからターゲットデータセットのドメインに変換する、教師なしのドメイン適応フレームワークである。
提案手法は,報告したドメイン適応手法と比較して最高の性能を達成し,完全教師付きベンチマークに適当に近い。
論文 参考訳(メタデータ) (2022-09-27T15:53:22Z) - MOGAN: Morphologic-structure-aware Generative Learning from a Single
Image [59.59698650663925]
近年,1つの画像のみに基づく生成モデルによる完全学習が提案されている。
多様な外観のランダムなサンプルを生成するMOGANというMOrphologic-structure-aware Generative Adversarial Networkを紹介します。
合理的な構造の維持や外観の変化など、内部機能に重点を置いています。
論文 参考訳(メタデータ) (2021-03-04T12:45:23Z) - DoFE: Domain-oriented Feature Embedding for Generalizable Fundus Image
Segmentation on Unseen Datasets [96.92018649136217]
対象ドメインに対するCNNの一般化能力を向上させるために,新しいドメイン指向特徴埋め込み(DoFE)フレームワークを提案する。
私たちのDoFEフレームワークは、マルチソースドメインから学んだ追加のドメイン事前知識で、画像機能を動的に強化します。
本フレームワークは、未確認データセットのセグメンテーション結果を満足して生成し、他の領域の一般化やネットワークの正規化手法を超越する。
論文 参考訳(メタデータ) (2020-10-13T07:28:39Z) - Domain Adaptive Transfer Attack (DATA)-based Segmentation Networks for
Building Extraction from Aerial Images [3.786567767772753]
本稿では,航空画像から抽出するドメイン適応トランスファー攻撃方式に基づくセグメンテーションネットワークを提案する。
提案システムは,ドメイン転送と敵攻撃の概念を組み合わせたシステムである。
3つの異なるデータセットに対して、データセット間の実験とアブレーション実験を行った。
論文 参考訳(メタデータ) (2020-04-11T06:17:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。