論文の概要: Move What Matters: Parameter-Efficient Domain Adaptation via Optimal Transport Flow for Collaborative Perception
- arxiv url: http://arxiv.org/abs/2602.11565v1
- Date: Thu, 12 Feb 2026 04:36:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-13 21:07:25.641144
- Title: Move What Matters: Parameter-Efficient Domain Adaptation via Optimal Transport Flow for Collaborative Perception
- Title(参考訳): モブ何が重要か: 協調知覚のための最適輸送流によるパラメータ効率の良いドメイン適応
- Authors: Zesheng Jia, Jin Wang, Siao Liu, Lingzhi Li, Ziyao Huang, Yunjiang Xu, Jianping Wang,
- Abstract要約: FlowAdaptは最適な輸送理論に基づくパラメータ効率のフレームワークである。
冗長サンプルを選択的にフィルタするWasserstein Greedy Smpling戦略を導入する。
プログレッシブ・ナレッジ・トランスファーモジュールは圧縮された初期表現を後段に注入するように設計されている。
- 参考スコア(独自算出の注目度): 8.774658029766988
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fast domain adaptation remains a fundamental challenge for deploying multi-agent systems across diverse environments in Vehicle-to-Everything (V2X) collaborative perception. Despite the success of Parameter-Efficient Fine-Tuning (PEFT) in natural language processing and conventional vision tasks, directly applying PEFT to multi-agent settings leads to significant performance degradation and training instability. In this work, we conduct a detailed analysis and identify two key factors: (i) inter-frame redundancy in heterogeneous sensory streams, and (ii) erosion of fine-grained semantics in deep-layer representations under PEFT adaptation. To address these issues, we propose FlowAdapt, a parameter-efficient framework grounded in optimal transport theory, which minimizes information transport costs across both data distributions and network hierarchies. Specifically, we introduce a Wasserstein Greedy Sampling strategy to selectively filter redundant samples via a bounded covering radius. Furthermore, Progressive Knowledge Transfer module is designed to progressively inject compressed early-stage representations into later stages through learnable pathways, alleviating semantic degradation in late-stage adaptation. Extensive experiments on three benchmarks demonstrate that FlowAdapt achieves state-of-the-art performance with only 1% of trainable parameters, effectively bridging domain gaps with superior sample efficiency and generalization.
- Abstract(参考訳): 高速なドメイン適応は、V2X(Valby-to-Everything)協調認識において、多様な環境にまたがるマルチエージェントシステムをデプロイする上で、依然として根本的な課題である。
自然言語処理や従来の視覚タスクにおけるパラメータ効率の良いファインチューニング(PEFT)の成功にもかかわらず、PEFTを直接マルチエージェント設定に適用することで、パフォーマンスの大幅な低下とトレーニングの不安定性をもたらす。
この研究では、詳細な分析を行い、2つの重要な要因を特定します。
一 異種感覚流におけるフレーム間冗長性及び
(II)PEFT適応下での深層表現における微粒な意味論の侵食
これらの問題に対処するために,データ分散とネットワーク階層の双方にわたる情報転送コストを最小限に抑える,最適輸送理論に基づくパラメータ効率の高いフレームワークであるFlowAdaptを提案する。
具体的には、境界被覆半径を介して冗長サンプルを選択的にフィルタリングするWasserstein Greedy Smpling戦略を導入する。
さらに、プログレッシブ・ナレッジ・トランスファー(Progressive Knowledge Transfer)モジュールは、圧縮された初期表現を学習可能な経路を通じて後段に徐々に注入し、後期適応における意味的劣化を軽減するように設計されている。
3つのベンチマークによる大規模な実験により、FlowAdaptはトレーニング可能なパラメータのわずか1%で最先端のパフォーマンスを実現し、ドメインギャップを効果的に埋め、より優れたサンプル効率と一般化を実現している。
関連論文リスト
- Beyond Weight Adaptation: Feature-Space Domain Injection for Cross-Modal Ship Re-Identification [3.6907522136316975]
CMS Re-ID(Cross-Modality Ship Re-Identification)は、全天候の海上目標追跡を実現するために重要である。
モダリティギャップのブリッジ化におけるビジョン・ファンデーション・モデル(VFM)の可能性を探る。
ドメイン表現注入(Domain Representation Injection, DRI)と呼ばれる新しいPEFT戦略を提案する。
論文 参考訳(メタデータ) (2025-12-24T02:30:23Z) - PathFinder: Advancing Path Loss Prediction for Single-to-Multi-Transmitter Scenario [60.906711761476735]
PathFinderは、アンタングル化された特徴符号化を通じて建物や送信機を積極的にモデル化する新しいアーキテクチャである。
テストでは、PathFinderは最先端のメソッド、特に挑戦的なマルチトランスミッタシナリオにおいて、大幅にパフォーマンスが向上している。
論文 参考訳(メタデータ) (2025-12-16T07:15:15Z) - CrossEarth-Gate: Fisher-Guided Adaptive Tuning Engine for Efficient Adaptation of Cross-Domain Remote Sensing Semantic Segmentation [32.405967784469304]
CrossEarth-Gateはリモートセンシング(RS)データにおける多面的なドメインギャップに対処する。
このツールボックスで動作するフィッシャー誘導適応選択機構を開発した。
提案手法は,RSセマンティックセグメンテーションのための16のクロスドメインベンチマークにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2025-11-25T13:41:59Z) - IDAP++: Advancing Divergence-Based Pruning via Filter-Level and Layer-Level Optimization [38.16787019088681]
本稿では,フィルタとアーキテクチャの両レベルでの冗長性に対処するニューラルネットワーク圧縮に対する新しいアプローチを提案する。
我々は,テンソルフローの分散という概念に基づいて,情報をネットワーク層間でどのように変換するかを定量化する。
論文 参考訳(メタデータ) (2025-11-25T10:02:21Z) - Grounded Test-Time Adaptation for LLM Agents [75.62784644919803]
大規模言語モデル(LLM)ベースのエージェントは、新規で複雑な環境への一般化に苦慮している。
環境特化情報を活用することで, LLMエージェントを適応するための2つの戦略を提案する。
論文 参考訳(メタデータ) (2025-11-06T22:24:35Z) - Continual Adaptation: Environment-Conditional Parameter Generation for Object Detection in Dynamic Scenarios [54.58186816693791]
環境は時間と空間によって常に変化し、クローズドセットの仮定に基づいて訓練された物体検出器にとって重要な課題となる。
そこで本研究では,微調整過程をパラメータ生成に変換する機構を提案する。
特に,2経路LoRAベースのドメイン認識アダプタを最初に設計し,特徴をドメイン不変およびドメイン固有コンポーネントに分解する。
論文 参考訳(メタデータ) (2025-06-30T17:14:12Z) - Optimal Transport Adapter Tuning for Bridging Modality Gaps in Few-Shot Remote Sensing Scene Classification [80.83325513157637]
Few-Shot Remote Sensing Scene Classification (FS-RSSC)は,限られたラベル付きサンプルを用いたリモートセンシング画像の分類の課題を示す。
理想的なプラトン表現空間を構築することを目的とした,OTAT(Optimal Transport Adapter Tuning)フレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-19T07:04:24Z) - SHERL: Synthesizing High Accuracy and Efficient Memory for Resource-Limited Transfer Learning [63.93193829913252]
本稿では,リソース制限シナリオに対するSHERLと呼ばれる革新的なMETL戦略を提案する。
初期経路では、中間出力は反冗長動作によって統合される。
遅延ルートでは、最小限の遅延事前トレーニングされたレイヤを利用することで、メモリオーバーヘッドのピーク需要を軽減できる。
論文 参考訳(メタデータ) (2024-07-10T10:22:35Z) - Pruning Self-attentions into Convolutional Layers in Single Path [89.55361659622305]
ビジョントランスフォーマー(ViT)は、様々なコンピュータビジョンタスクに対して印象的なパフォーマンスを実現している。
トレーニング済みのViTを効率よく自動圧縮するSPViT(Single-Path Vision Transformer pruning)を提案する。
われわれのSPViTはDeiT-Bで52.0%のFLOPをトリミングできる。
論文 参考訳(メタデータ) (2021-11-23T11:35:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。