論文の概要: Enhancing Generalization of Depth Estimation Foundation Model via Weakly-Supervised Adaptation with Regularization
- arxiv url: http://arxiv.org/abs/2511.14238v1
- Date: Tue, 18 Nov 2025 08:16:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-19 16:23:53.007269
- Title: Enhancing Generalization of Depth Estimation Foundation Model via Weakly-Supervised Adaptation with Regularization
- Title(参考訳): 正規化による弱修正適応による深さ推定基礎モデルの一般化の促進
- Authors: Yan Huang, Yongyi Su, Xin Lin, Le Zhang, Xun Xu,
- Abstract要約: WeSTAR(Weakly supervised Self-Training Adaptation with Regularization)を提案する。
まず、構造的自己超越の主源として、密集した自己学習目標を採用する。
さらにロバスト性を改善するために,意味論的に認識された階層的正規化を導入する。
- 参考スコア(独自算出の注目度): 21.788680301776207
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The emergence of foundation models has substantially advanced zero-shot generalization in monocular depth estimation (MDE), as exemplified by the Depth Anything series. However, given access to some data from downstream tasks, a natural question arises: can the performance of these models be further improved? To this end, we propose WeSTAR, a parameter-efficient framework that performs Weakly supervised Self-Training Adaptation with Regularization, designed to enhance the robustness of MDE foundation models in unseen and diverse domains. We first adopt a dense self-training objective as the primary source of structural self-supervision. To further improve robustness, we introduce semantically-aware hierarchical normalization, which exploits instance-level segmentation maps to perform more stable and multi-scale structural normalization. Beyond dense supervision, we introduce a cost-efficient weak supervision in the form of pairwise ordinal depth annotations to further guide the adaptation process, which enforces informative ordinal constraints to mitigate local topological errors. Finally, a weight regularization loss is employed to anchor the LoRA updates, ensuring training stability and preserving the model's generalizable knowledge. Extensive experiments on both realistic and corrupted out-of-distribution datasets under diverse and challenging scenarios demonstrate that WeSTAR consistently improves generalization and achieves state-of-the-art performance across a wide range of benchmarks.
- Abstract(参考訳): 基礎モデルの出現は、Depth Anythingシリーズで示されるように、単眼深度推定(MDE)におけるゼロショット一般化を著しく進歩させた。
しかし、ダウンストリームタスクからデータにアクセスすると、自然な疑問が生じる。
この目的のために、WeSTARは、不明瞭で多様なドメインにおけるMDE基盤モデルのロバスト性を高めるために、Weaklyによる正規化による自己学習適応を実行するパラメータ効率のよいフレームワークである。
まず、構造的自己超越の主源として、密集した自己学習目標を採用する。
さらにロバスト性を改善するため,より安定かつマルチスケールな構造正規化を実現するために,インスタンスレベルのセグメンテーションマップを利用するセマンティック・アウェアな階層正規化を導入する。
厳密な監督の他に,局所的トポロジカルエラーを軽減するための情報的順序制約を強制する適応プロセスをさらに導くために,一対の順序深度アノテーションという形で,費用対効果の弱い監督を導入する。
最後に、LoRA更新をアンロックし、トレーニングの安定性を確保し、モデルの一般化可能な知識を維持するために重量正規化損失が使用される。
多様な、困難なシナリオ下での現実的および破壊的なアウト・オブ・ディストリビューションデータセットに関する広範な実験は、WeSTARが一貫して一般化を改善し、幅広いベンチマークで最先端のパフォーマンスを達成することを実証している。
関連論文リスト
- Likelihood-guided Regularization in Attention Based Models [1.561268797057701]
視覚変換器(ViTs)のための確率誘導型変分型Ising型正規化フレームワークを提案する。
そこで,Ising正則化器は,不確実性を考慮した注意機構を通じて,精度の高い確率推定と構造的特徴選択を導出することを示す。
論文 参考訳(メタデータ) (2025-11-17T10:38:09Z) - CoRA: Covariate-Aware Adaptation of Time Series Foundation Models [47.20786327020571]
Time Series Foundation Models (TSFM) は、そのモデル容量、スケーラビリティ、ゼロショットの一般化を通じて、大きな影響を与えている。
TSFMのための一般共変量認識適応(CoRA)フレームワークを提案する。
論文 参考訳(メタデータ) (2025-10-14T16:20:00Z) - Weight Spectra Induced Efficient Model Adaptation [54.8615621415845]
微調整された大規模な基礎モデルは、計算コストを禁ずる。
微調整が最上位特異値を大きく増幅する一方で,残りはほとんど無傷であることを示す。
本稿では,トップ特異方向の学習可能な再スケーリングを利用する新しい手法を提案する。
論文 参考訳(メタデータ) (2025-05-29T05:03:29Z) - Model Hemorrhage and the Robustness Limits of Large Language Models [119.46442117681147]
大規模言語モデル(LLM)は、自然言語処理タスク全体で強力なパフォーマンスを示すが、デプロイメント用に修正された場合、大幅なパフォーマンス低下を経験する。
この現象をモデル出血(パラメータ変更とアーキテクチャ変更によるパフォーマンス低下)と定義する。
論文 参考訳(メタデータ) (2025-03-31T10:16:03Z) - Unified Enhancement of the Generalization and Robustness of Language Models via Bi-Stage Optimization [2.502393972789905]
本稿では,LMの一般化とロバスト性の両方を均一に向上する二段階最適化フレームワークを提案する。
提案手法は,従来の手法と比較して,LMの一般化とロバスト性を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2025-03-19T13:50:36Z) - GroCo: Ground Constraint for Metric Self-Supervised Monocular Depth [2.805351469151152]
本稿では,自己監督パラダイムに特化して設計された地盤領域に関する新しい制約を提案する。
このメカニズムはスケールを正確に回復するだけでなく、深度予測と地上とのコヒーレンスを確保する。
論文 参考訳(メタデータ) (2024-09-23T09:30:27Z) - Enhancing Robustness of Vision-Language Models through Orthogonality Learning and Self-Regularization [77.62516752323207]
そこで本研究では,事前訓練した重みを効率よく微調整する直交微調整法を導入し,頑健さと一般化の強化を実現した。
自己正規化戦略は、OrthSRと呼ばれるVLMのゼロショット一般化の観点から安定性を維持するためにさらに活用される。
筆者らはCLIPとCoOpを再検討し,少数の画像のクラスフィシエーションシナリオにおけるモデルの改善を効果的に行う。
論文 参考訳(メタデータ) (2024-07-11T10:35:53Z) - Consistency Regularization for Generalizable Source-free Domain
Adaptation [62.654883736925456]
ソースフリードメイン適応(source-free domain adapt, SFDA)は、ソースデータセットにアクセスすることなく、十分にトレーニングされたソースモデルを未学習のターゲットドメインに適応することを目的としている。
既存のSFDAメソッドは、ターゲットのトレーニングセット上で適用されたモデルを評価し、目に見えないが同一の分散テストセットからデータを無視する。
より一般化可能なSFDA法を開発するための整合正則化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-03T07:45:53Z) - Posterior Differential Regularization with f-divergence for Improving
Model Robustness [95.05725916287376]
クリーン入力とノイズ入力のモデル後部差を規則化する手法に着目する。
後微分正則化を$f$-divergencesの族に一般化する。
実験の結果, 後方微分を$f$-divergenceで正規化することで, モデルロバスト性の向上が期待できることがわかった。
論文 参考訳(メタデータ) (2020-10-23T19:58:01Z) - Target-Embedding Autoencoders for Supervised Representation Learning [111.07204912245841]
本稿では,対象空間が高次元な純粋教師付き環境における一般化の枠組みを解析する。
我々は、教師付き予測のための目標埋め込みオートエンコーダ(TEA)の一般的なフレームワークのモチベーションと形式化を行い、特徴とターゲットの予測の両方から予測可能なように最適化された中間潜在表現を学習する。
論文 参考訳(メタデータ) (2020-01-23T02:37:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。