論文の概要: SuperWarp: Supervised Learning and Warping on U-Net for Invariant
Subvoxel-Precise Registration
- arxiv url: http://arxiv.org/abs/2205.07399v1
- Date: Sun, 15 May 2022 23:17:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-18 02:08:30.793047
- Title: SuperWarp: Supervised Learning and Warping on U-Net for Invariant
Subvoxel-Precise Registration
- Title(参考訳): SuperWarp: Unvariant Subvoxel-Precise RegistrationのためのU-Net上での学習とワープ
- Authors: Sean I. Young, Ya\"el Balbastre, Adrian V. Dalca, William M. Wells,
Juan Eugenio Iglesias, Bruce Fischl
- Abstract要約: 近年、学習に基づく画像登録手法は、ターゲットのワープを直接監督することから離れ、代わりにセルフスーパービジョンを使用するようになった。
本稿では,教師付き登録手法の相対的失敗が,通常のU-Netの利用に原因があることを論じる。
変形予測から特徴抽出とマッチングを分離するU-Netに、単純だが重要な変更を導入する。
- 参考スコア(独自算出の注目度): 14.819845435373397
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, learning-based image registration methods have gradually
moved away from direct supervision with target warps to instead use
self-supervision, with excellent results in several registration benchmarks.
These approaches utilize a loss function that penalizes the intensity
differences between the fixed and moving images, along with a suitable
regularizer on the deformation. In this paper, we argue that the relative
failure of supervised registration approaches can in part be blamed on the use
of regular U-Nets, which are jointly tasked with feature extraction, feature
matching, and estimation of deformation. We introduce one simple but crucial
modification to the U-Net that disentangles feature extraction and matching
from deformation prediction, allowing the U-Net to warp the features, across
levels, as the deformation field is evolved. With this modification, direct
supervision using target warps begins to outperform self-supervision approaches
that require segmentations, presenting new directions for registration when
images do not have segmentations. We hope that our findings in this preliminary
workshop paper will re-ignite research interest in supervised image
registration techniques. Our code is publicly available from
https://github.com/balbasty/superwarp.
- Abstract(参考訳): 近年、学習に基づく画像登録手法は、ターゲットのワープによる直接監督から、代わりにセルフスーパービジョンに移行し、いくつかの登録ベンチマークで優れた結果が得られた。
これらのアプローチでは、固定画像と移動画像の強度差をペナライズする損失関数と、変形に対する適切な正則化器を用いる。
本稿では, 教師付き登録アプローチの相対的失敗は, 特徴抽出, 特徴マッチング, 変形推定を共同で行う正規のu-netの利用に一部責任を負うことができると主張する。
変形場が発達するにつれて,U-Netは,特徴抽出と変形予測の整合を解消し,その特性を階層的にワープすることができる。
この修正により、ターゲットワープを用いた直接監督は、セグメンテーションを必要とするセルフスーパービジョンアプローチよりも優れ始め、画像にセグメンテーションがない場合に新しい方向を示す。
本論文の知見は,監視画像登録技術に対する研究の関心を再燃させることを期待する。
私たちのコードはhttps://github.com/balbasty/superwarp.comから公開しています。
関連論文リスト
- Unsupervised Representation Learning by Balanced Self Attention Matching [2.3020018305241337]
本稿では,BAMと呼ばれる画像特徴を埋め込む自己教師型手法を提案する。
我々は,これらの分布とグローバルな均衡とエントロピー正規化バージョンに一致する損失を最小化することにより,豊かな表現と特徴の崩壊を回避する。
半教師付きベンチマークと移動学習ベンチマークの両方において,先行手法と競合する性能を示す。
論文 参考訳(メタデータ) (2024-08-04T12:52:44Z) - SINDER: Repairing the Singular Defects of DINOv2 [61.98878352956125]
大規模なデータセットでトレーニングされたビジョントランスフォーマーモデルは、抽出したパッチトークンにアーティファクトを表示することが多い。
本稿では,小さなデータセットのみを用いて構造欠陥を補正するスムーズなスムーズな正規化を提案する。
論文 参考訳(メタデータ) (2024-07-23T20:34:23Z) - Cycle-Correspondence Loss: Learning Dense View-Invariant Visual Features from Unlabeled and Unordered RGB Images [8.789674502390378]
本稿では、ビュー不変な高密度記述子学習のためのCCL(Cycle-Cor correspondingence Loss)を紹介する。
鍵となるアイデアは、新しい画像に対する予測を使って、有効なピクセル対応を自律的に検出することである。
評価の結果、他の自己教師付きRGB専用手法よりも優れており、教師付き手法の性能にアプローチしていることがわかった。
論文 参考訳(メタデータ) (2024-06-18T09:44:56Z) - PDiscoNet: Semantically consistent part discovery for fine-grained
recognition [62.12602920807109]
画像レベルのクラスラベルのみを用いて,対象部品の発見を推奨する先行情報とともにPDiscoNetを提案する。
CUB,CelebA,PartImageNet で得られた結果から,提案手法は従来手法よりもかなり優れた部分発見性能が得られることがわかった。
論文 参考訳(メタデータ) (2023-09-06T17:19:29Z) - Learning to Mask and Permute Visual Tokens for Vision Transformer
Pre-Training [59.923672191632065]
我々はMasked and Permuted Vision Transformer(MaPeT)という自己教師型事前学習手法を提案する。
MaPeTは、自動回帰および置換予測を使用して、パッチ内依存関係をキャプチャする。
以上の結果から,MaPeTはImageNet上での競合性能を実証した。
論文 参考訳(メタデータ) (2023-06-12T18:12:19Z) - UIA-ViT: Unsupervised Inconsistency-Aware Method based on Vision
Transformer for Face Forgery Detection [52.91782218300844]
そこで我々は、UIA-ViTと呼ばれるビジョン変換器に基づく教師なし不整合認識手法を提案する。
自己注意機構により、パッチ埋め込み間の注意マップは自然に一貫性関係を表現し、一貫性表現学習に適した視覚変換器となる。
論文 参考訳(メタデータ) (2022-10-23T15:24:47Z) - Reducing Representation Drift in Online Continual Learning [87.71558506591937]
私たちは、エージェントが制限されたメモリと計算で変化する分布から学ぶ必要があるオンライン連続学習パラダイムを研究します。
この作業では、入ってくるデータストリームに未観測のクラスサンプルが導入されることにより、事前に観測されたデータの表現の変化に焦点を合わせます。
論文 参考訳(メタデータ) (2021-04-11T15:19:30Z) - CutPaste: Self-Supervised Learning for Anomaly Detection and
Localization [59.719925639875036]
通常のトレーニングデータのみを用いて異常検知器を構築するためのフレームワークを提案する。
まず、自己教師付き深層表現を学習し、学習した表現の上に生成的1クラス分類器を構築する。
MVTec異常検出データセットに関する実証研究は,提案アルゴリズムが実世界の様々な欠陥を検出可能であることを実証している。
論文 参考訳(メタデータ) (2021-04-08T19:04:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。