論文の概要: StyleSeg V2: Towards Robust One-shot Segmentation of Brain Tissue via Optimization-free Registration Error Perception
- arxiv url: http://arxiv.org/abs/2405.03197v1
- Date: Mon, 6 May 2024 06:45:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-07 14:35:25.592480
- Title: StyleSeg V2: Towards Robust One-shot Segmentation of Brain Tissue via Optimization-free Registration Error Perception
- Title(参考訳): StyleSeg V2:最適化不要登録誤り認識による脳組織のロバストワンショット分割に向けて
- Authors: Zhiwei Wang, Xiaoyu Zeng, Chongwei Wu, Jinxin lv, Xu Zhang, Wei Fang, Qiang Li,
- Abstract要約: 脳組織のワンショットセグメンテーションには、トレーニング登録セグメンテーション(reg-seg)二重モデルが反復的に必要である。
最近のStyleSegは、ラベルのないイメージを歪んだatlasのコピーに置き換えることで、このボトルネックを回避している。
ここでは、StyleSegから継承されたStyleSeg V2を提示するが、登録エラーを認識する能力を認めた。
- 参考スコア(独自算出の注目度): 15.118588568951253
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: One-shot segmentation of brain tissue requires training registration-segmentation (reg-seg) dual-model iteratively, where reg-model aims to provide pseudo masks of unlabeled images for seg-model by warping a carefully-labeled atlas. However, the imperfect reg-model induces image-mask misalignment, poisoning the seg-model subsequently. Recent StyleSeg bypasses this bottleneck by replacing the unlabeled images with their warped copies of atlas, but needs to borrow the diverse image patterns via style transformation. Here, we present StyleSeg V2, inherited from StyleSeg but granted the ability of perceiving the registration errors. The motivation is that good registration behaves in a mirrored fashion for mirrored images. Therefore, almost at no cost, StyleSeg V2 can have reg-model itself "speak out" incorrectly-aligned regions by simply mirroring (symmetrically flipping the brain) its input, and the registration errors are symmetric inconsistencies between the outputs of original and mirrored inputs. Consequently, StyleSeg V2 allows the seg-model to make use of correctly-aligned regions of unlabeled images and also enhances the fidelity of style-transformed warped atlas image by weighting the local transformation strength according to registration errors. The experimental results on three public datasets demonstrate that our proposed StyleSeg V2 outperforms other state-of-the-arts by considerable margins, and exceeds StyleSeg by increasing the average Dice by at least 2.4%.
- Abstract(参考訳): 脳組織の1ショットのセグメンテーションでは、トレーニング登録セグメンテーション(reg-seg)二重モデルが反復的に必要となる。
しかし、不完全なreg-モデルがイメージマスクの異常を誘発し、セグ-モデルに毒を盛る。
最近のStyleSegは、ラベルのないイメージを歪んだatlasのコピーに置き換えることで、このボトルネックを回避しているが、スタイル変換を通じてさまざまなイメージパターンを借用する必要がある。
ここでは、StyleSegから継承されたStyleSeg V2を提示するが、登録エラーを認識する能力を認めた。
その動機は、良好な登録がミラー化された画像に対してミラー化された方法で振る舞うことである。
したがって、StyleSeg V2 は入力を単純にミラーリング(対称的に脳を反転させる)することで、reg-model 自体が正しく一致しない領域を "speak out" でき、登録エラーは元の入力とミラーされた入力の出力の対称的な矛盾である。
このため、StyleSeg V2は、セグモデルを未ラベル画像の正しく整列された領域の使用を可能にし、また、登録誤差に応じて局所変換強度を重み付けすることで、スタイル変換されたアトラス画像の忠実度を高める。
3つの公開データセットの実験結果から、提案したStyleSeg V2は、他の最先端技術よりもかなり優れており、平均Diceを2.4%以上増やすことでStyleSegを上回っていることが示された。
関連論文リスト
- Distractors-Immune Representation Learning with Cross-modal Contrastive Regularization for Change Captioning [71.14084801851381]
変更キャプションは、類似した画像間のセマンティックな変化を簡潔に記述することを目的としている。
既存のほとんどの手法は、それらの違いを直接キャプチャし、エラーを起こしやすい特徴を得るリスクを負う。
本稿では,2つの画像表現の対応するチャネルを関連づけるイントラクタ免疫表現学習ネットワークを提案する。
論文 参考訳(メタデータ) (2024-07-16T13:00:33Z) - Image2Sentence based Asymmetrical Zero-shot Composed Image Retrieval [92.13664084464514]
合成画像検索(CIR)の課題は,検索画像とユーザの意図を記述したテキストに基づいて画像を取得することである。
既存の手法は、CIRタスクにおける高度な大規模視覚言語(VL)モデルにおいて大きな進歩を遂げているが、それらは一般的に、モデルトレーニングのためのラベル付き三重項の欠如とリソース制限された環境への展開の困難という2つの大きな問題に悩まされている。
本稿では、VLモデルを利用して合成学習のためのラベルなし画像のみに依存する画像2Sentenceに基づく非対称ゼロショット合成画像検索(ISA)を提案する。
論文 参考訳(メタデータ) (2024-03-03T07:58:03Z) - Self-supervised Cross-view Representation Reconstruction for Change
Captioning [113.08380679787247]
変更キャプションは、類似したイメージのペアの違いを記述することを目的としている。
その主な課題は、視点変化によって引き起こされる擬似変化の下で、安定した差分表現を学習する方法である。
自己教師型クロスビュー表現再構成ネットワークを提案する。
論文 参考訳(メタデータ) (2023-09-28T09:28:50Z) - Robust One-shot Segmentation of Brain Tissues via Image-aligned Style
Transformation [13.430851964063534]
本稿では,脳組織のワンショットセグメンテーションのための2モデル反復学習を強化するために,新しい画像整列型変換を提案する。
2つの公開データセットによる実験結果から,1)完全教師付き手法と比較して,提案手法の競合セグメンテーション性能が向上し,2)Diceの平均値が4.67%向上した他の最先端技術よりも優れた性能を示した。
論文 参考訳(メタデータ) (2022-11-26T09:14:01Z) - Refign: Align and Refine for Adaptation of Semantic Segmentation to
Adverse Conditions [78.71745819446176]
Refignは、ドメイン間の通信を利用する自己学習ベースのUDAメソッドへの汎用的な拡張である。
Refign は,(1) 不確実性を認識した高密度マッチングネットワークを用いて,正常条件画像と対応する悪条件画像とを整列させ,(2) 適応ラベル補正機構を用いて正常予測で悪条件予測を精査する。
このアプローチでは、追加のトレーニングパラメータや、トレーニングのみの計算オーバーヘッドの最小化は導入されず、任意の自己学習ベースのUDAメソッドを改善するためにドロップイン拡張として使用することができる。
論文 参考訳(メタデータ) (2022-07-14T11:30:38Z) - $\texttt{GradICON}$: Approximate Diffeomorphisms via Gradient Inverse
Consistency [16.72466200341455]
ニューラルネットワークを用いて、ソースとターゲットイメージ間のマップと、ソースとターゲットイメージを切り替える際のマップを予測します。
我々は,様々な実世界の医療画像データセットに対して,最先端の登録性能を実現する。
論文 参考訳(メタデータ) (2022-06-13T04:03:49Z) - Siamese Image Modeling for Self-Supervised Vision Representation
Learning [73.78790119050056]
自己教師付き学習(SSL)は、さまざまな下流視覚タスクにおいて優れたパフォーマンスを提供している。
2つのメインストリームSSLフレームワーク、すなわちインスタンス識別(ID)とマスク画像モデリング(MIM)が提案されている。
本稿では,拡張ビューの濃密な表現を予測できるSiamese Image Modeling (SIM)を提案する。
論文 参考訳(メタデータ) (2022-06-02T17:59:58Z) - DiffuseMorph: Unsupervised Deformable Image Registration Along
Continuous Trajectory Using Diffusion Models [31.826844124173984]
DiffuseMorphと呼ばれる拡散モデルに基づく新しい確率的画像登録手法を提案する。
本モデルは,動画像と固定画像の変形のスコア関数を学習する。
本手法は, トポロジー保存機能により, 柔軟かつ高精度な変形を可能とする。
論文 参考訳(メタデータ) (2021-12-09T08:41:23Z) - Coarse-to-Fine Gaze Redirection with Numerical and Pictorial Guidance [74.27389895574422]
本稿では,数値誘導と画像誘導の両方を利用した新しい視線リダイレクトフレームワークを提案する。
提案手法は,画像品質とリダイレクト精度の両方の観点から,最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2020-04-07T01:17:27Z) - Scene Text Recognition With Finer Grid Rectification [6.598317412802175]
本稿では、より微細な修正モジュールと双方向の注意認識ネットワーク(Firbarn)から構成されるエンドツーエンドのトレーニング可能なモデルを提案する。
標準ベンチマークでの広範な評価の結果は、Firbarnの以前の業績、特に不規則なデータセットよりも優れていた。
論文 参考訳(メタデータ) (2020-01-26T02:40:11Z) - A Comparative Study for Non-rigid Image Registration and Rigid Image
Registration [1.7878745477602331]
本研究では,最先端のDeep-based non-rigid registration approachと厳密な登録アプローチを比較した。
ボクセルモルフは、比較のために、剛体集合と非剛体集合を別々に訓練する。
根平均二乗誤差 (RMSE) と平均絶対誤差 (MAE) の両値における最良の定量値は, SimpleElastix と Voxelmorph による非剛性登録 (non-rigid registration) により得られる。
論文 参考訳(メタデータ) (2020-01-12T02:32:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。