論文の概要: Using Out-of-the-Box Frameworks for Unpaired Image Translation and Image
Segmentation for the crossMoDA Challenge
- arxiv url: http://arxiv.org/abs/2110.01607v1
- Date: Sat, 2 Oct 2021 08:04:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-06 14:04:32.297341
- Title: Using Out-of-the-Box Frameworks for Unpaired Image Translation and Image
Segmentation for the crossMoDA Challenge
- Title(参考訳): CrossMoDA チャレンジにおける未完成画像翻訳と画像分割のためのアウトオブボックスフレームワークの利用
- Authors: Jae Won Choi
- Abstract要約: コントラスト強化T1 MRから高分解能T2 MRへの領域適応にCUTモデルを用いる。
セグメンテーションタスクでは、nnU-Netフレームワークを使用します。
- 参考スコア(独自算出の注目度): 0.6396288020763143
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The purpose of this study is to apply and evaluate out-of-the-box deep
learning frameworks for the crossMoDA challenge. We use the CUT model for
domain adaptation from contrast-enhanced T1 MR to high-resolution T2 MR. As
data augmentation, we generated additional images with vestibular schwannomas
with lower signal intensity. For the segmentation task, we use the nnU-Net
framework. Our final submission achieved a mean Dice score of 0.8299 (0.0465)
in the validation phase.
- Abstract(参考訳): 本研究の目的は,CrossMoDA チャレンジに対する事前学習フレームワークの適用と評価である。
我々は,高分解能T1 MRから高分解能T2 MRへの領域適応にCUTモデルを使用し,データ増大に伴い,信号強度の低い前庭神経ショーノマを付加した画像を生成する。
セグメンテーションタスクでは、nnU-Netフレームワークを使用します。
最終提出は検証段階での平均Diceスコア0.8299(0.0465)を達成した。
関連論文リスト
- Unsupervised Modality Adaptation with Text-to-Image Diffusion Models for Semantic Segmentation [54.96563068182733]
セグメンテーションタスクのためのテキスト・ツー・イメージ拡散モデル(MADM)を用いたモダリティ適応を提案する。
MADMは、広範囲な画像とテキストのペアで事前訓練されたテキストと画像の拡散モデルを使用して、モデルの相互モダリティ能力を向上する。
我々は,MADMが画像から深度,赤外線,イベントのモダリティといった様々なモダリティタスクにまたがって,最先端の適応性能を実現することを示す。
論文 参考訳(メタデータ) (2024-10-29T03:49:40Z) - Diffusion for Natural Image Matting [93.86689168212241]
DiffMatteは、画像マッチングの課題を克服するために設計されたソリューションである。
まず、DiffMatteはデコーダを複雑な結合されたマッティングネットワーク設計から切り離し、拡散プロセスのイテレーションで1つの軽量デコーダだけを含む。
第2に、均一な時間間隔を持つ自己整合トレーニング戦略を採用し、時間領域全体にわたるトレーニングと推論の間に一貫したノイズサンプリングを確保する。
論文 参考訳(メタデータ) (2023-12-10T15:28:56Z) - Contrastive Denoising Score for Text-guided Latent Diffusion Image Editing [58.48890547818074]
潜在拡散モデル(LDM)に対するコントラストデノナイジングスコア(CUT)の強力な修正を提案する。
提案手法により,ゼロショット画像から画像への変換とニューラルフィールド(NeRF)の編集が可能となり,入力と出力の間の構造的対応が達成される。
論文 参考訳(メタデータ) (2023-11-30T15:06:10Z) - Image-level supervision and self-training for transformer-based
cross-modality tumor segmentation [2.29206349318258]
そこで本研究では,MoDATTSと呼ばれる半教師付きトレーニング戦略を提案する。
MoDATTSは、未実装のバイモーダルデータセット上の正確な3D腫瘍セグメンテーションのために設計されている。
この最大性能の99%と100%は、目標データの20%と50%が注釈付きであれば達成できると報告している。
論文 参考訳(メタデータ) (2023-09-17T11:50:12Z) - Dense Affinity Matching for Few-Shot Segmentation [83.65203917246745]
Few-Shot (FSS) は、新しいクラスイメージをいくつかのサンプルで分割することを目的としている。
本稿では,サポートクエリ間の相互作用を生かした密接な親和性マッチングフレームワークを提案する。
我々のフレームワークは0.68万のパラメータしか持たない異なる設定で非常に競争力のある性能を示す。
論文 参考訳(メタデータ) (2023-07-17T12:27:15Z) - Decoupled Diffusion Models: Simultaneous Image to Zero and Zero to Noise [53.04220377034574]
10機能未満の高画質(未条件)の画像生成のためのデカップリング拡散モデル(DDM)を提案する。
我々は,1) 画像から0遷移までをモデル化した解析的遷移確率に基づいて, 学習目標と(2) サンプリング式を逆時間に導出する。
1)無条件画像生成, CIFAR-10, CelebA-HQ-256, 2)超解像, 塩分検出, エッジ検出, 画像入力などの下流処理, テキスト処理, テキスト処理, テキスト処理, テキスト処理, 画像処理, 画像処理などと比較して, 非常に競争力のある性能が得られる。
論文 参考訳(メタデータ) (2023-06-23T18:08:00Z) - MS-MT: Multi-Scale Mean Teacher with Contrastive Unpaired Translation
for Cross-Modality Vestibular Schwannoma and Cochlea Segmentation [11.100048696665496]
教師なしドメイン適応(UDA)メソッドは、有望なクロスモダリティセグメンテーション性能を達成した。
本稿では,2つの重要な脳構造の自動分割のための,マルチスケールの自己組織化に基づくUDAフレームワークを提案する。
提案手法は,平均Diceスコアが83.8%,81.4%の有望なセグメンテーション性能を示す。
論文 参考訳(メタデータ) (2023-03-28T08:55:00Z) - Multi-view Cross-Modality MR Image Translation for Vestibular Schwannoma
and Cochlea Segmentation [0.7829352305480285]
コントラスト強調T1 (ceT1) MR画像から高分解能T2 (hrT2) MR画像へ変換できる多視点画像翻訳フレームワークを提案する。
画素レベルの一貫した制約とパッチレベルのコントラスト的制約を用いる2つの画像変換モデルを並列に採用する。
これにより、異なる視点を反映した擬似hrT2画像が拡張され、最終的に高い性能のセグメンテーションモデルが実現される。
論文 参考訳(メタデータ) (2023-03-27T08:42:10Z) - Unsupervised Cross-Modality Domain Adaptation for Vestibular Schwannoma
Segmentation and Koos Grade Prediction based on Semi-Supervised Contrastive
Learning [1.5953825926551457]
クロスモダリティ前庭神経新生(VS)とコチェリーセグメンテーションとKoosグレード予測のための教師なしドメイン適応フレームワーク。
nnU-NetモデルはVSとcochleaセグメンテーションに利用され、半教師付きコントラクティブ学習事前訓練アプローチがモデル性能を改善するために使用される。
平均Diceスコアが0.8394のタスク1では4位,平均平均値が0.3941のタスク2では2位であった。
論文 参考訳(メタデータ) (2022-10-09T13:12:20Z) - Unsupervised Cross-Modality Domain Adaptation for Segmenting Vestibular
Schwannoma and Cochlea with Data Augmentation and Model Ensemble [4.942327155020771]
本稿では,前庭神経新生と子牛を識別する教師なし学習フレームワークを提案する。
本フレームワークは,T1強調MRI(ceT1-w)とそのラベルからの情報を活用し,対象領域にラベルが存在しないT2強調MRIのセグメンテーションを生成する。
提案手法は,VS と cochlea のそれぞれの平均値 0.7930 と 0.7432 で,有望なセグメンテーションの構築と生成が容易である。
論文 参考訳(メタデータ) (2021-09-24T20:10:05Z) - Pairwise Relation Learning for Semi-supervised Gland Segmentation [90.45303394358493]
病理組織像における腺分節に対するPRS2モデルを提案する。
このモデルはセグメンテーションネットワーク(S-Net)とペア関係ネットワーク(PR-Net)から構成される。
我々は,GlaSデータセットの最近の5つの手法とCRAGデータセットの最近の3つの手法を比較した。
論文 参考訳(メタデータ) (2020-08-06T15:02:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。