論文の概要: Deep Matching Prior: Test-Time Optimization for Dense Correspondence
- arxiv url: http://arxiv.org/abs/2106.03090v1
- Date: Sun, 6 Jun 2021 10:56:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-13 19:34:18.327274
- Title: Deep Matching Prior: Test-Time Optimization for Dense Correspondence
- Title(参考訳): ディープマッチング事前: ディエンス対応のためのテスト時間最適化
- Authors: Sunghwan Hong, Seungryong Kim
- Abstract要約: 入力対のイメージ上で、トレーニングされていないマッチングネットワークを最適化することで、画像ペア固有の先行情報をキャプチャできることを示す。
実験により、私たちのフレームワークはDeep Matching Prior (DMP)と呼ばれ、最新の学習ベースの手法に対して競争力があり、性能も優れています。
- 参考スコア(独自算出の注目度): 37.492074298574664
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Conventional techniques to establish dense correspondences across visually or
semantically similar images focused on designing a task-specific matching
prior, which is difficult to model. To overcome this, recent learning-based
methods have attempted to learn a good matching prior within a model itself on
large training data. The performance improvement was apparent, but the need for
sufficient training data and intensive learning hinders their applicability.
Moreover, using the fixed model at test time does not account for the fact that
a pair of images may require their own prior, thus providing limited
performance and poor generalization to unseen images. In this paper, we show
that an image pair-specific prior can be captured by solely optimizing the
untrained matching networks on an input pair of images. Tailored for such
test-time optimization for dense correspondence, we present a residual matching
network and a confidence-aware contrastive loss to guarantee a meaningful
convergence. Experiments demonstrate that our framework, dubbed Deep Matching
Prior (DMP), is competitive, or even outperforms, against the latest
learning-based methods on several benchmarks for geometric matching and
semantic matching, even though it requires neither large training data nor
intensive learning. With the networks pre-trained, DMP attains state-of-the-art
performance on all benchmarks.
- Abstract(参考訳): 視覚的または意味的に類似したイメージにまたがる密接な対応を確立する従来の手法は、モデル化が難しいタスク固有のマッチングを事前に設計することに焦点を当てていた。
これを克服するために、近年の学習ベース手法では、大規模トレーニングデータに基づいてモデル自体の事前マッチングを学習しようと試みている。
パフォーマンスの改善は明らかだったが、十分なトレーニングデータと集中学習の必要性は、その適用性を妨げている。
さらに、テスト時に固定モデルを使用することは、一対のイメージが独自の事前を必要とする可能性があるという事実を考慮しないため、パフォーマンスが制限され、未確認画像への一般化が不十分である。
本稿では,入力された画像に対して,未学習のマッチングネットワークのみを最適化することで,画像ペア固有のプリエントをキャプチャできることを示す。
密接な対応のためのテストタイム最適化のために調整された、残差マッチングネットワークと信頼度対応コントラスト損失を提示し、有意義な収束を保証する。
実験によると、我々のフレームワークはdeep matching prior(dmp)と呼ばれ、大きなトレーニングデータや集中学習を必要としないにもかかわらず、幾何マッチングやセマンティクスマッチングのベンチマークで最新の学習ベースの手法と競合している。
ネットワークの事前トレーニングにより、DMPはすべてのベンチマークで最先端のパフォーマンスを達成する。
関連論文リスト
- Adversarial Robustification via Text-to-Image Diffusion Models [56.37291240867549]
アドリラルロバスト性は、ニューラルネットワークをエンコードする難しい性質として伝統的に信じられてきた。
データを使わずに敵の堅牢性を実現するために,スケーラブルでモデルに依存しないソリューションを開発した。
論文 参考訳(メタデータ) (2024-07-26T10:49:14Z) - Match me if you can: Semi-Supervised Semantic Correspondence Learning with Unpaired Images [76.47980643420375]
本稿では,意味的対応の学習に固有のデータ・ハングリー・マターが存在するという仮説に基づく。
我々は,機械の監督を通じて,ペア化されたキーポイントを確実に強化する単純な機械注釈器を実証する。
我々のモデルは,SPair-71k,PF-PASCAL,PF-WILLOWといった意味対応学習ベンチマークの最先端モデルを上回る。
論文 参考訳(メタデータ) (2023-11-30T13:22:15Z) - Self-Supervised Pretraining for 2D Medical Image Segmentation [0.0]
自己教師付き学習は、不正なデータに対して特定のドメインのモデルを事前訓練することで、手動でアノテートされたデータの必要性を下げる手段を提供する。
自然画像と対象領域固有の画像による自己教師付き事前学習は、最も速く、最も安定した下流収束をもたらす。
低データシナリオでは、教師付きImageNet事前トレーニングが最も正確であり、最小限のエラーに近づくためには100以上の注釈付きサンプルが必要である。
論文 参考訳(メタデータ) (2022-09-01T09:25:22Z) - Meta-Registration: Learning Test-Time Optimization for Single-Pair Image
Registration [0.37501702548174964]
この研究は、画像登録をメタ学習アルゴリズムとして定式化する。
前立腺癌108例の臨床経直腸超音波画像データを用いて実験を行った。
論文 参考訳(メタデータ) (2022-07-22T10:30:00Z) - Deep Translation Prior: Test-time Training for Photorealistic Style
Transfer [36.82737412912885]
近年のCNN(Deep Convolutional Neural Network)におけるフォトリアリスティックなスタイル転送の解決には,大規模データセットからの集中的なトレーニングが必要となる。
提案手法はDTP(Deep Translation Prior)とよばれる新しいフレームワークで,与えられた入力画像対とトレーニングされていないネットワークをテストタイムでトレーニングすることで,フォトリアリスティックなスタイルの転送を実現する。
論文 参考訳(メタデータ) (2021-12-12T04:54:27Z) - Learning Contrastive Representation for Semantic Correspondence [150.29135856909477]
セマンティックマッチングのためのマルチレベルコントラスト学習手法を提案する。
画像レベルのコントラスト学習は、畳み込み特徴が類似したオブジェクト間の対応を見出すための鍵となる要素であることを示す。
論文 参考訳(メタデータ) (2021-09-22T18:34:14Z) - Warp Consistency for Unsupervised Learning of Dense Correspondences [116.56251250853488]
密接な対応を学習する上で重要な課題は、実画像対に対する地道整合の欠如である。
密な対応回帰のための教師なし学習目標であるWarp Consistencyを提案する。
私たちのアプローチは、MegaDepth、RobotCar、TSSなど、いくつかの挑戦的なベンチマークに新しい最先端を設定します。
論文 参考訳(メタデータ) (2021-04-07T17:58:22Z) - Unsupervised Learning of Visual Features by Contrasting Cluster
Assignments [57.33699905852397]
ペア比較の計算を必要とせず,コントラスト的手法を生かしたオンラインアルゴリズムSwaVを提案する。
本手法では,クラスタ割り当て間の一貫性を保ちながら,同時にデータをクラスタ化する。
我々の方法は大規模で小さなバッチで訓練でき、無制限のデータにスケールできる。
論文 参考訳(メタデータ) (2020-06-17T14:00:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。