論文の概要: Reg-TTR, Test-Time Refinement for Fast, Robust and Accurate Image Registration
- arxiv url: http://arxiv.org/abs/2601.19114v1
- Date: Tue, 27 Jan 2026 02:36:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-28 15:26:51.135038
- Title: Reg-TTR, Test-Time Refinement for Fast, Robust and Accurate Image Registration
- Title(参考訳): 高速ロバストかつ高精度な画像登録のためのReg-TTR
- Authors: Lin Chen, Yue He, Fengting Zhang, Yaonan Wang, Fengming Lin, Xiang Chen, Min Liu,
- Abstract要約: Reg-TTRは、ディープラーニングと従来の登録技法の相補的な長所を相乗化するテスト時間改善フレームワークである。
提案手法は,事前学習したモデルの予測を推論時に洗練することにより,少ない計算コストで登録精度を大幅に向上させる。
Reg-TTRは、従来のディープラーニング手法に近い推論速度を維持しながら、最先端(SOTA)性能を達成する。
- 参考スコア(独自算出の注目度): 39.078421388240294
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traditional image registration methods are robust but slow due to their iterative nature. While deep learning has accelerated inference, it often struggles with domain shifts. Emerging registration foundation models offer a balance of speed and robustness, yet typically cannot match the peak accuracy of specialized models trained on specific datasets. To mitigate this limitation, we propose Reg-TTR, a test-time refinement framework that synergizes the complementary strengths of both deep learning and conventional registration techniques. By refining the predictions of pre-trained models at inference, our method delivers significantly improved registration accuracy at a modest computational cost, requiring only 21% additional inference time (0.56s). We evaluate Reg-TTR on two distinct tasks and show that it achieves state-of-the-art (SOTA) performance while maintaining inference speeds close to previous deep learning methods. As foundation models continue to emerge, our framework offers an efficient strategy to narrow the performance gap between registration foundation models and SOTA methods trained on specialized datasets. The source code will be publicly available following the acceptance of this work.
- Abstract(参考訳): 従来の画像登録法は、その反復性のため頑丈だが遅い。
ディープラーニングは推論を加速する一方で、ドメインシフトに苦慮することが多い。
新たな登録基盤モデルは、スピードと堅牢性のバランスを提供するが、通常は特定のデータセットでトレーニングされた特別なモデルのピーク精度と一致しない。
この制限を緩和するために,ディープラーニングと従来の登録手法の相補的な長所を相補するテスト時間改善フレームワークであるReg-TTRを提案する。
提案手法では,事前学習したモデルの予測を改良することにより,最小の計算コストで登録精度を大幅に改善し,推定時間(0.56秒)を21%追加するしかなかった。
我々は,Reg-TTRを2つの異なるタスクで評価し,従来のディープラーニング手法に近い推論速度を維持しつつ,最先端(SOTA)性能を実現することを示す。
基盤モデルが登場し続ければ,私たちのフレームワークは,特定のデータセットでトレーニングされた登録基盤モデルとSOTAメソッドのパフォーマンスギャップを狭めるための効率的な戦略を提供する。
この作業の受理後、ソースコードが公開される。
関連論文リスト
- Implicit Neural Representation-Based Continuous Single Image Super Resolution: An Empirical Study [50.15623093332659]
入射神経表現(INR)は任意のスケール画像超解像(ASSR)の標準的アプローチとなっている
既存の手法を多様な設定で比較し、複数の画像品質指標に対して集計結果を示す。
トレーニング中, エッジ, テクスチャ, 細部を保存しながら, 強度変化をペナライズする新たな損失関数について検討した。
論文 参考訳(メタデータ) (2026-01-25T07:09:20Z) - LoRA-TTT: Low-Rank Test-Time Training for Vision-Language Models [23.218237408724676]
視覚言語モデル(VLM)のための新しいテスト時間訓練(TTT)法であるLoRA-TTTを提案する。
テスト期間中にLoRAを導入し,パラメータのみを更新することにより,本手法は単純かつ効果的なTTTアプローチを提供する。
本手法は,メモリ消費や実行量を増やすことなく,これらの2つの損失を組み合わせ,多様な領域に適応することができる。
論文 参考訳(メタデータ) (2025-02-04T07:40:26Z) - Towards Generalizable Trajectory Prediction Using Dual-Level Representation Learning And Adaptive Prompting [107.4034346788744]
既存の車両軌道予測モデルは、一般化可能性、予測の不確実性、複雑な相互作用を扱う。
本研究では,(1)自己拡張(SD)とマスドレコンストラクション(MR)による二重レベル表現学習,グローバルコンテキストと細部の詳細の収集,(2)レジスタベースのクエリと事前学習の強化,クラスタリングと抑圧の必要性の排除,(3)微調整中の適応型プロンプトチューニング,メインアーキテクチャの凍結,および少数のプロンプトの最適化といった,新たなトラジェクタ予測フレームワークであるPerceiverを提案する。
論文 参考訳(メタデータ) (2025-01-08T20:11:09Z) - Enhancing Test Time Adaptation with Few-shot Guidance [62.49199492255226]
深層ニューラルネットワークは、トレーニング(ソース)とテスト(ターゲット)データのドメインシフトに直面しながら、大きなパフォーマンス低下に直面することが多い。
TTA(Test Time Adaptation)法は,事前学習したソースモデルを用いて,配信外ストリーミングターゲットデータを処理する手法として提案されている。
本稿では,Few-Shot Test Time Adaptation (FS-TTA) を開発した。
論文 参考訳(メタデータ) (2024-09-02T15:50:48Z) - On-the-Fly Guidance Training for Medical Image Registration [14.309599960641242]
本研究は,既存の学習ベース画像登録モデルを改善するための新しいトレーニングフレームワークであるOn-the-Fly Guidance(OFG)を紹介する。
本手法では,ラベル付きデータを必要としない登録モデルをトレーニングするための教師付き手法を提案する。
提案手法は,複数のベンチマークデータセットおよび先行モデルでテストされ,性能が大幅に向上した。
論文 参考訳(メタデータ) (2023-08-29T11:12:53Z) - RDumb: A simple approach that questions our progress in continual test-time adaptation [12.374649969346441]
テスト時間適応(TTA)では、事前トレーニングされたモデルをデプロイ時にデータ配布を変更するように更新することができる。
近年の長期にわたる連続的適応手法の提案と適用方法が提案されている。
最終的には、最先端の1つのメソッド以外はすべて崩壊し、非適応モデルよりもパフォーマンスが悪くなることに気付きました。
論文 参考訳(メタデータ) (2023-06-08T17:52:34Z) - TWINS: A Fine-Tuning Framework for Improved Transferability of
Adversarial Robustness and Generalization [89.54947228958494]
本稿では,様々な分類タスクにおいて,逆向きに事前訓練されたモデルの微調整に焦点を当てる。
本稿では,TWINS(Two-WIng NormliSation)ファインチューニングフレームワークを提案する。
TWINSは、一般化とロバスト性の両方の観点から、幅広い画像分類データセットに有効であることが示されている。
論文 参考訳(メタデータ) (2023-03-20T14:12:55Z) - Learning 3D-3D Correspondences for One-shot Partial-to-partial
Registration [66.41922513553367]
学習に基づく部分的対部分的な登録をワンショットで行うことができることを示す。
そこで本研究では,ビンの利用により閉塞点を考慮に入れた最適輸送層を提案する。
結果として得られるOPRNetフレームワークは、標準ベンチマークにおける最先端技術を上回っている。
論文 参考訳(メタデータ) (2020-06-08T12:35:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。