論文の概要: CoDS: Enhancing Collaborative Perception in Heterogeneous Scenarios via Domain Separation
- arxiv url: http://arxiv.org/abs/2510.13432v1
- Date: Wed, 15 Oct 2025 11:29:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-16 20:13:28.644403
- Title: CoDS: Enhancing Collaborative Perception in Heterogeneous Scenarios via Domain Separation
- Title(参考訳): CoDS:ドメイン分離による異種シナリオにおける協調認識の促進
- Authors: Yushan Han, Hui Zhang, Honglei Zhang, Chuntao Ding, Yuanzhouhan Cao, Yidong Li,
- Abstract要約: 協調的知覚は、自律運転における個人の知覚を改善することが証明されている。
ほとんどのメソッドは、すべてのエージェントに対して同一のエンコーダを仮定するが、これらのモデルが現実世界のアプリケーションにデプロイされる際には正しくは保たない。
既存の手法は通常、隣接する特徴とエゴ車の特徴とを一致させるが、これはドメインギャップからのノイズに弱い。
- 参考スコア(独自算出の注目度): 25.442016145030383
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Collaborative perception has been proven to improve individual perception in autonomous driving through multi-agent interaction. Nevertheless, most methods often assume identical encoders for all agents, which does not hold true when these models are deployed in real-world applications. To realize collaborative perception in actual heterogeneous scenarios, existing methods usually align neighbor features to those of the ego vehicle, which is vulnerable to noise from domain gaps and thus fails to address feature discrepancies effectively. Moreover, they adopt transformer-based modules for domain adaptation, which causes the model inference inefficiency on mobile devices. To tackle these issues, we propose CoDS, a Collaborative perception method that leverages Domain Separation to address feature discrepancies in heterogeneous scenarios. The CoDS employs two feature alignment modules, i.e., Lightweight Spatial-Channel Resizer (LSCR) and Distribution Alignment via Domain Separation (DADS). Besides, it utilizes the Domain Alignment Mutual Information (DAMI) loss to ensure effective feature alignment. Specifically, the LSCR aligns the neighbor feature across spatial and channel dimensions using a lightweight convolutional layer. Subsequently, the DADS mitigates feature distribution discrepancy with encoder-specific and encoder-agnostic domain separation modules. The former removes domain-dependent information and the latter captures task-related information. During training, the DAMI loss maximizes the mutual information between aligned heterogeneous features to enhance the domain separation process. The CoDS employs a fully convolutional architecture, which ensures high inference efficiency. Extensive experiments demonstrate that the CoDS effectively mitigates feature discrepancies in heterogeneous scenarios and achieves a trade-off between detection accuracy and inference efficiency.
- Abstract(参考訳): 協調的知覚は、マルチエージェントインタラクションを通じて自律運転における個人の知覚を改善することが証明されている。
しかしながら、ほとんどのメソッドは全てのエージェントに対して同一のエンコーダを仮定するが、これらのモデルが現実世界のアプリケーションにデプロイされた場合、そうはならない。
実の不均一なシナリオにおいて協調的な認識を実現するために、既存の手法は通常、近隣の特徴とエゴ車の特徴とを一致させるが、それは、ドメインギャップからのノイズに弱いため、特徴の相違に効果的に対処できない。
さらに、トランスフォーマーベースのモジュールをドメイン適応に適用することで、モバイルデバイス上でモデル推論が非効率になる。
このような問題に対処するために,ドメイン分離を利用して異種シナリオにおける特徴の相違に対処する協調認識手法であるCoDSを提案する。
CoDSは2つの機能アライメントモジュール、すなわち軽量空間チャネルリサイザ(LSCR)と、ドメイン分離(DADS)による分散アライメントを採用している。
さらに、ドメインアライメント・ミューチュアル・インフォメーション(DAMI)の損失を利用して、効果的な機能アライメントを保証する。
具体的には、LSCRは、軽量な畳み込み層を用いて、空間的およびチャネル次元に隣接する特徴を整列する。
その後、DADSは、エンコーダ固有のおよびエンコーダに依存しないドメイン分離モジュールによる特徴分散の相違を緩和する。
前者はドメイン依存情報を削除し、後者はタスク関連情報をキャプチャする。
トレーニング中、DAMI損失は整列した異種特徴間の相互情報を最大化し、ドメイン分離プロセスを強化する。
CoDSは完全な畳み込みアーキテクチャを採用し、高い推論効率を保証する。
大規模な実験により、CoDSは不均一なシナリオにおける特徴の相違を効果的に軽減し、検出精度と推論効率のトレードオフを実現する。
関連論文リスト
- Let Synthetic Data Shine: Domain Reassembly and Soft-Fusion for Single Domain Generalization [68.41367635546183]
単一ドメインの一般化は、単一のソースからのデータを使用して、さまざまなシナリオで一貫したパフォーマンスでモデルをトレーニングすることを目的としている。
モデル一般化を改善するために合成データを活用した学習フレームワークDRSFを提案する。
論文 参考訳(メタデータ) (2025-03-17T18:08:03Z) - From Limited Labels to Open Domains:An Efficient Learning Method for Drone-view Geo-Localization [12.785100004522059]
従来のドローンビュージオローカライゼーション(DVGL)手法は、ペア化されたトレーニングデータに大きく依存している。
DVGL法は、新しいペアデータを取得し、その後のモデル適応のための再訓練を必要とする。
本稿では,限られた監督力を有するクロスドメイン不変知識伝達ネットワーク(CDIKTNet)を提案する。
論文 参考訳(メタデータ) (2025-03-10T16:46:43Z) - Exploiting Aggregation and Segregation of Representations for Domain Adaptive Human Pose Estimation [50.31351006532924]
人間のポーズ推定(HPE)は最近、モーション分析、バーチャルリアリティー、ヘルスケア等に広く応用されているため、注目を集めている。
時間と労働集約的なアノテーションのために、ラベル付き現実世界のデータセットが不足している。
本稿では,ドメイン適応型人間のポーズ推定のための表現集約と分離を両立させる新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-29T17:59:45Z) - Towards Full-scene Domain Generalization in Multi-agent Collaborative Bird's Eye View Segmentation for Connected and Autonomous Driving [49.03947018718156]
協調的な知覚の訓練と推論の段階で利用される統合されたドメイン一般化フレームワークを提案する。
また、システム内ドメインアライメント機構を導入し、コネクテッドおよび自律走行車間のドメインの差を減らし、潜在的に排除する。
論文 参考訳(メタデータ) (2023-11-28T12:52:49Z) - Improving Anomaly Segmentation with Multi-Granularity Cross-Domain
Alignment [17.086123737443714]
異常セグメンテーションは、画像中の非定型物体を識別する上で重要な役割を担っている。
既存の手法は合成データに顕著な結果を示すが、合成データドメインと実世界のデータドメインの相違を考慮できないことが多い。
シーンと個々のサンプルレベルの両方で、ドメイン間の機能を調和させるのに適した、マルチグラニュラリティ・クロスドメインアライメントフレームワークを導入します。
論文 参考訳(メタデータ) (2023-08-16T22:54:49Z) - Decompose to Adapt: Cross-domain Object Detection via Feature
Disentanglement [79.2994130944482]
本研究では,DDF(Domain Disentanglement Faster-RCNN)を設計し,タスク学習のための特徴のソース固有情報を排除した。
DDF法は,グローバルトリプルト・ディアンタングルメント(GTD)モジュールとインスタンス類似性・ディアンタングルメント(ISD)モジュールを用いて,グローバルおよびローカルステージでの機能ディアンタングルを容易にする。
提案手法は,4つのUDAオブジェクト検出タスクにおいて最先端の手法より優れており,広い適用性で有効であることが実証された。
論文 参考訳(メタデータ) (2022-01-06T05:43:01Z) - Semi-supervised Domain Adaptive Structure Learning [72.01544419893628]
半教師付きドメイン適応 (SSDA) は,1) アノテーションの低いデータに過度に適合する手法と,2) ドメイン間の分散シフトの両方を克服しなければならない課題である。
SSLとDAの協調を正規化するための適応型構造学習手法を提案する。
論文 参考訳(メタデータ) (2021-12-12T06:11:16Z) - Stagewise Unsupervised Domain Adaptation with Adversarial Self-Training
for Road Segmentation of Remote Sensing Images [93.50240389540252]
リモートセンシング画像からの道路セグメンテーションは、幅広い応用可能性を持つ課題である。
本稿では,この領域における領域シフト(DS)問題に対処するため,RoadDAと呼ばれる新たな段階的ドメイン適応モデルを提案する。
2つのベンチマーク実験の結果、RoadDAはドメインギャップを効率的に減らし、最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2021-08-28T09:29:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。