論文の概要: Using Out-of-the-Box Frameworks for Unpaired Image Translation and Image
Segmentation for the crossMoDA Challenge
- arxiv url: http://arxiv.org/abs/2110.01607v1
- Date: Sat, 2 Oct 2021 08:04:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-06 14:04:32.297341
- Title: Using Out-of-the-Box Frameworks for Unpaired Image Translation and Image
Segmentation for the crossMoDA Challenge
- Title(参考訳): CrossMoDA チャレンジにおける未完成画像翻訳と画像分割のためのアウトオブボックスフレームワークの利用
- Authors: Jae Won Choi
- Abstract要約: コントラスト強化T1 MRから高分解能T2 MRへの領域適応にCUTモデルを用いる。
セグメンテーションタスクでは、nnU-Netフレームワークを使用します。
- 参考スコア(独自算出の注目度): 0.6396288020763143
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The purpose of this study is to apply and evaluate out-of-the-box deep
learning frameworks for the crossMoDA challenge. We use the CUT model for
domain adaptation from contrast-enhanced T1 MR to high-resolution T2 MR. As
data augmentation, we generated additional images with vestibular schwannomas
with lower signal intensity. For the segmentation task, we use the nnU-Net
framework. Our final submission achieved a mean Dice score of 0.8299 (0.0465)
in the validation phase.
- Abstract(参考訳): 本研究の目的は,CrossMoDA チャレンジに対する事前学習フレームワークの適用と評価である。
我々は,高分解能T1 MRから高分解能T2 MRへの領域適応にCUTモデルを使用し,データ増大に伴い,信号強度の低い前庭神経ショーノマを付加した画像を生成する。
セグメンテーションタスクでは、nnU-Netフレームワークを使用します。
最終提出は検証段階での平均Diceスコア0.8299(0.0465)を達成した。
関連論文リスト
- Diffusion for Natural Image Matting [93.86689168212241]
DiffMatteは、画像マッチングの課題を克服するために設計されたソリューションである。
まず、DiffMatteはデコーダを複雑な結合されたマッティングネットワーク設計から切り離し、拡散プロセスのイテレーションで1つの軽量デコーダだけを含む。
第2に、均一な時間間隔を持つ自己整合トレーニング戦略を採用し、時間領域全体にわたるトレーニングと推論の間に一貫したノイズサンプリングを確保する。
論文 参考訳(メタデータ) (2023-12-10T15:28:56Z) - Contrastive Denoising Score for Text-guided Latent Diffusion Image
Editing [63.89492742059184]
本稿では,LDM(Latent Image-to-image Translation Model)に対するCDS(Contrastive Denoising Score)の変更について述べる。
具体的には,フレームワーク内のCUT損失を用いて構造的整合性を制御するための簡単なアプローチを提案する。
提案手法は,ゼロショット画像から画像への変換とニューラルフィールド(NeRF)の編集を可能にする。
論文 参考訳(メタデータ) (2023-11-30T15:06:10Z) - Image-level supervision and self-training for transformer-based
cross-modality tumor segmentation [2.29206349318258]
そこで本研究では,MoDATTSと呼ばれる半教師付きトレーニング戦略を提案する。
MoDATTSは、未実装のバイモーダルデータセット上の正確な3D腫瘍セグメンテーションのために設計されている。
この最大性能の99%と100%は、目標データの20%と50%が注釈付きであれば達成できると報告している。
論文 参考訳(メタデータ) (2023-09-17T11:50:12Z) - Dense Affinity Matching for Few-Shot Segmentation [83.65203917246745]
Few-Shot (FSS) は、新しいクラスイメージをいくつかのサンプルで分割することを目的としている。
本稿では,サポートクエリ間の相互作用を生かした密接な親和性マッチングフレームワークを提案する。
我々のフレームワークは0.68万のパラメータしか持たない異なる設定で非常に競争力のある性能を示す。
論文 参考訳(メタデータ) (2023-07-17T12:27:15Z) - MS-MT: Multi-Scale Mean Teacher with Contrastive Unpaired Translation
for Cross-Modality Vestibular Schwannoma and Cochlea Segmentation [11.100048696665496]
教師なしドメイン適応(UDA)メソッドは、有望なクロスモダリティセグメンテーション性能を達成した。
本稿では,2つの重要な脳構造の自動分割のための,マルチスケールの自己組織化に基づくUDAフレームワークを提案する。
提案手法は,平均Diceスコアが83.8%,81.4%の有望なセグメンテーション性能を示す。
論文 参考訳(メタデータ) (2023-03-28T08:55:00Z) - Multi-view Cross-Modality MR Image Translation for Vestibular Schwannoma
and Cochlea Segmentation [0.7829352305480285]
コントラスト強調T1 (ceT1) MR画像から高分解能T2 (hrT2) MR画像へ変換できる多視点画像翻訳フレームワークを提案する。
画素レベルの一貫した制約とパッチレベルのコントラスト的制約を用いる2つの画像変換モデルを並列に採用する。
これにより、異なる視点を反映した擬似hrT2画像が拡張され、最終的に高い性能のセグメンテーションモデルが実現される。
論文 参考訳(メタデータ) (2023-03-27T08:42:10Z) - Multi-scale Transformer Network with Edge-aware Pre-training for
Cross-Modality MR Image Synthesis [52.41439725865149]
クロスモダリティ磁気共鳴(MR)画像合成は、与えられたモダリティから欠落するモダリティを生成するために用いられる。
既存の(教師付き学習)手法は、効果的な合成モデルを訓練するために、多くのペア化されたマルチモーダルデータを必要とすることが多い。
マルチスケールトランスフォーマーネットワーク(MT-Net)を提案する。
論文 参考訳(メタデータ) (2022-12-02T11:40:40Z) - Unsupervised Cross-Modality Domain Adaptation for Vestibular Schwannoma
Segmentation and Koos Grade Prediction based on Semi-Supervised Contrastive
Learning [1.5953825926551457]
クロスモダリティ前庭神経新生(VS)とコチェリーセグメンテーションとKoosグレード予測のための教師なしドメイン適応フレームワーク。
nnU-NetモデルはVSとcochleaセグメンテーションに利用され、半教師付きコントラクティブ学習事前訓練アプローチがモデル性能を改善するために使用される。
平均Diceスコアが0.8394のタスク1では4位,平均平均値が0.3941のタスク2では2位であった。
論文 参考訳(メタデータ) (2022-10-09T13:12:20Z) - Unsupervised Cross-Modality Domain Adaptation for Segmenting Vestibular
Schwannoma and Cochlea with Data Augmentation and Model Ensemble [4.942327155020771]
本稿では,前庭神経新生と子牛を識別する教師なし学習フレームワークを提案する。
本フレームワークは,T1強調MRI(ceT1-w)とそのラベルからの情報を活用し,対象領域にラベルが存在しないT2強調MRIのセグメンテーションを生成する。
提案手法は,VS と cochlea のそれぞれの平均値 0.7930 と 0.7432 で,有望なセグメンテーションの構築と生成が容易である。
論文 参考訳(メタデータ) (2021-09-24T20:10:05Z) - Group-Wise Semantic Mining for Weakly Supervised Semantic Segmentation [49.90178055521207]
この研究は、画像レベルのアノテーションとピクセルレベルのセグメンテーションのギャップを埋めることを目標に、弱い監督されたセマンティックセグメンテーション(WSSS)に対処する。
画像群における意味的依存関係を明示的にモデル化し,より信頼性の高い擬似的基盤構造を推定する,新たなグループ学習タスクとしてWSSSを定式化する。
特に、入力画像がグラフノードとして表現されるグループ単位のセマンティックマイニングのためのグラフニューラルネットワーク(GNN)を考案する。
論文 参考訳(メタデータ) (2020-12-09T12:40:13Z) - Pairwise Relation Learning for Semi-supervised Gland Segmentation [90.45303394358493]
病理組織像における腺分節に対するPRS2モデルを提案する。
このモデルはセグメンテーションネットワーク(S-Net)とペア関係ネットワーク(PR-Net)から構成される。
我々は,GlaSデータセットの最近の5つの手法とCRAGデータセットの最近の3つの手法を比較した。
論文 参考訳(メタデータ) (2020-08-06T15:02:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。