論文の概要: Continual Adaptation: Environment-Conditional Parameter Generation for Object Detection in Dynamic Scenarios
- arxiv url: http://arxiv.org/abs/2506.24063v1
- Date: Mon, 30 Jun 2025 17:14:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:54.16761
- Title: Continual Adaptation: Environment-Conditional Parameter Generation for Object Detection in Dynamic Scenarios
- Title(参考訳): 連続適応:動的シナリオにおける物体検出のための環境条件パラメータ生成
- Authors: Deng Li, Aming Wu, Yang Li, Yaowei Wang, Yahong Han,
- Abstract要約: 環境は時間と空間によって常に変化し、クローズドセットの仮定に基づいて訓練された物体検出器にとって重要な課題となる。
そこで本研究では,微調整過程をパラメータ生成に変換する機構を提案する。
特に,2経路LoRAベースのドメイン認識アダプタを最初に設計し,特徴をドメイン不変およびドメイン固有コンポーネントに分解する。
- 参考スコア(独自算出の注目度): 54.58186816693791
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In practice, environments constantly change over time and space, posing significant challenges for object detectors trained based on a closed-set assumption, i.e., training and test data share the same distribution. To this end, continual test-time adaptation has attracted much attention, aiming to improve detectors' generalization by fine-tuning a few specific parameters, e.g., BatchNorm layers. However, based on a small number of test images, fine-tuning certain parameters may affect the representation ability of other fixed parameters, leading to performance degradation. Instead, we explore a new mechanism, i.e., converting the fine-tuning process to a specific-parameter generation. Particularly, we first design a dual-path LoRA-based domain-aware adapter that disentangles features into domain-invariant and domain-specific components, enabling efficient adaptation. Additionally, a conditional diffusion-based parameter generation mechanism is presented to synthesize the adapter's parameters based on the current environment, preventing the optimization from getting stuck in local optima. Finally, we propose a class-centered optimal transport alignment method to mitigate catastrophic forgetting. Extensive experiments conducted on various continuous domain adaptive object detection tasks demonstrate the effectiveness. Meanwhile, visualization results show that the representation extracted by the generated parameters can capture more object-related information and strengthen the generalization ability.
- Abstract(参考訳): 実際には、環境は常に時間と空間によって変化し、クローズドセットの仮定に基づいて訓練されたオブジェクト検出器にとって重要な課題となる。
この目的のために、連続的なテスト時間適応は、検出器の一般化を改善するためにいくつかの特定のパラメータ(例えば、BatchNorm層)を微調整することを目的として、多くの注目を集めている。
しかし、少数のテスト画像に基づいて、特定のパラメータを微調整すると、他の固定パラメータの表現能力に影響を与え、性能が低下する可能性がある。
代わりに、我々は、微調整プロセスを特定のパラメータ生成に変換する新しいメカニズムを探求する。
特に,デュアルパス LoRA ベースのドメイン認識アダプタを設計し,特徴をドメイン不変およびドメイン固有コンポーネントに分散させ,効率よく適応できるようにする。
さらに、条件拡散に基づくパラメータ生成機構を提示し、現在の環境に基づいてアダプタのパラメータを合成し、最適化が局所的な最適状態に収まらないようにする。
最後に,破滅的忘れを緩和するクラス中心の最適輸送アライメント手法を提案する。
様々な連続領域適応オブジェクト検出タスクで実施された大規模な実験は、その効果を実証している。
一方、可視化の結果、生成したパラメータによって抽出された表現は、より多くのオブジェクト関連情報をキャプチャし、一般化能力を強化することができることが示された。
関連論文リスト
- Style-Adaptive Detection Transformer for Single-Source Domain Generalized Object Detection [7.768332621617199]
オブジェクト検出における単一ソースドメイン一般化(SDG)は、ソースドメインのデータのみを使用して検出器を開発することを目的としている。
ドメイン不変な特徴を抽出する際,検出器を誘導するオブジェクト認識型コントラスト学習モジュールを提案する。
実験は、5つの異なる気象シナリオにおけるSA-DETRの優れた性能と一般化能力を示す。
論文 参考訳(メタデータ) (2025-04-29T07:38:37Z) - GeneralizeFormer: Layer-Adaptive Model Generation across Test-Time Distribution Shifts [58.95913531746308]
テスト時間領域の一般化の問題は、モデルが複数のソースドメインで訓練され、トレーニング中に見たことのないターゲットドメインで調整される場合である。
textitGeneralizeFormer と呼ばれる軽量メタ学習変換器を用いて,推論中に複数の層パラメータを生成することを提案する。
論文 参考訳(メタデータ) (2025-02-15T10:10:49Z) - ALoRE: Efficient Visual Adaptation via Aggregating Low Rank Experts [71.91042186338163]
ALoREは、Kroneckerによって構築された超複素パラメータ化空間をAggregate Low Rank Expertsに再利用する新しいPETL法である。
巧妙な設計のおかげで、ALoREは無視できる余分なパラメータを保持し、凍ったバックボーンに強制的にマージできる。
論文 参考訳(メタデータ) (2024-12-11T12:31:30Z) - Exploring Test-Time Adaptation for Object Detection in Continually Changing Environments [20.307151769610087]
連続的テスト時間適応(CTTA)は、目標ドメインを継続的に変更するソーストレーニングモデルに徐々に適応する、有望な手法として登場した。
我々は3つのコアコンポーネントを特徴とするAMRODについて,CTTAシナリオにおける検出モデルに対するこれらの課題に対処する。
我々は,AMRODが既存の方法よりも優れている4つのCTTAオブジェクト検出タスクにおいて,AMRODの有効性を実証する。
論文 参考訳(メタデータ) (2024-06-24T08:30:03Z) - A Unified Gaussian Process for Branching and Nested Hyperparameter
Optimization [19.351804144005744]
ディープラーニングでは、条件に依存したパラメータのチューニングが一般的に行われている。
新しいGPモデルでは、新しいカーネル関数を通じて入力変数間の依存構造が説明される。
ニューラルネットワークの一連の合成シミュレーションおよび実データ応用において、高い予測精度とより良い最適化効率が観察される。
論文 参考訳(メタデータ) (2024-01-19T21:11:32Z) - Winning Prize Comes from Losing Tickets: Improve Invariant Learning by
Exploring Variant Parameters for Out-of-Distribution Generalization [76.27711056914168]
Out-of-Distribution (OOD) 一般化は、分散固有の特徴に適合することなく、様々な環境によく適応する堅牢なモデルを学ぶことを目的としている。
LTH(Lottery Ticket hypothesis)に基づく最近の研究は、学習目標を最小化し、タスクに重要なパラメータのいくつかを見つけることでこの問題に対処している。
Invariant Learning (EVIL) における変数探索手法を提案する。
論文 参考訳(メタデータ) (2023-10-25T06:10:57Z) - Parameter-Efficient Fine-Tuning without Introducing New Latency [7.631596468553607]
隠れ表現の代わりに事前学習パラメータに直接アダプタを適用する新しいアダプタ技術を導入する。
提案手法は,性能と記憶効率の両面で新たな最先端性を実現し,完全微調整のパラメータは0.03%に過ぎなかった。
論文 参考訳(メタデータ) (2023-05-26T08:44:42Z) - Sensitivity-Aware Visual Parameter-Efficient Fine-Tuning [91.5113227694443]
私たちは新しいビジュアルを提案します。
Sensuous-Aware Fine-Tuning (SPT) スキーム。
SPTはタスク固有の重要な位置にトレーニング可能なパラメータを割り当てる。
ダウンストリーム認識タスクの幅広い実験により,SPTは既存のPEFT法と相補的であることが示された。
論文 参考訳(メタデータ) (2023-03-15T12:34:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。