論文の概要: You Share Beliefs, I Adapt: Progressive Heterogeneous Collaborative Perception
- arxiv url: http://arxiv.org/abs/2509.09310v1
- Date: Thu, 11 Sep 2025 09:53:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-12 16:52:24.325499
- Title: You Share Beliefs, I Adapt: Progressive Heterogeneous Collaborative Perception
- Title(参考訳): 信念を共有し、私は順応する:進歩的不均一な協調的知覚
- Authors: Hao Si, Ehsan Javanmardi, Manabu Tsukada,
- Abstract要約: 協調的知覚により、車両は情報を共有することによって、個々の知覚制限を克服することができる。
本稿では,プログレッシブ・ヘテロジニアス・コラボレーティブ・パーセプション(PHCP)について紹介する。
PHCPは推論中にアダプタを自己学習することで特徴を動的に整列させ、ラベル付きデータや共同トレーニングを不要にする。
- 参考スコア(独自算出の注目度): 1.9142273925815776
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Collaborative perception enables vehicles to overcome individual perception limitations by sharing information, allowing them to see further and through occlusions. In real-world scenarios, models on different vehicles are often heterogeneous due to manufacturer variations. Existing methods for heterogeneous collaborative perception address this challenge by fine-tuning adapters or the entire network to bridge the domain gap. However, these methods are impractical in real-world applications, as each new collaborator must undergo joint training with the ego vehicle on a dataset before inference, or the ego vehicle stores models for all potential collaborators in advance. Therefore, we pose a new question: Can we tackle this challenge directly during inference, eliminating the need for joint training? To answer this, we introduce Progressive Heterogeneous Collaborative Perception (PHCP), a novel framework that formulates the problem as few-shot unsupervised domain adaptation. Unlike previous work, PHCP dynamically aligns features by self-training an adapter during inference, eliminating the need for labeled data and joint training. Extensive experiments on the OPV2V dataset demonstrate that PHCP achieves strong performance across diverse heterogeneous scenarios. Notably, PHCP achieves performance comparable to SOTA methods trained on the entire dataset while using only a small amount of unlabeled data.
- Abstract(参考訳): 協調的な知覚は、車両が情報を共有することによって個々の知覚の限界を克服し、より深く、そして排他的に見ることを可能にする。
現実のシナリオでは、異なる車両のモデルは、しばしばメーカーのバリエーションのために異種である。
不均一な協調認識のための既存の方法は、ドメインギャップを埋めるために、微調整アダプタやネットワーク全体によってこの問題に対処する。
しかし、これらの手法は現実の応用では非現実的であり、新しい協力者は推論の前にデータセット上でエゴ車と共同で訓練する必要がある。
したがって、我々は新しい疑問を提起する: 推論中に直接この課題に取り組み、共同トレーニングの必要性をなくすことができるか?
そこで本研究では,プログレッシブ・ヘテロジニアス・コラボレーティブ・パーセプション(PHCP, Progressive Heterogeneous Collaborative Perception)を提案する。
以前の作業とは異なり、PHCPは推論中にアダプタを自己学習することで機能を動的に調整し、ラベル付きデータや共同トレーニングを不要にする。
OPV2Vデータセットの大規模な実験により、PHCPは多様な異種シナリオで高い性能を発揮することが示された。
特に、PHCPは、少量のラベルのないデータのみを使用しながら、データセット全体で訓練されたSOTAメソッドに匹敵するパフォーマンスを達成する。
関連論文リスト
- HeatV2X: Scalable Heterogeneous Collaborative Perception via Efficient Alignment and Interaction [7.171380055232685]
V2X(Van-to-Everything)コラボレーティブ・インセプションは、トランスミッションを通じて、単一車両の限界を超えて知覚を拡大する。
既存のフレームワークは、(1)参加エージェントは本質的にマルチモーダルで異種であり、(2)新しいエージェントに対応するためには、協調フレームワークはスケーラブルでなければならない。
スケーラブルな協調フレームワークであるHeatV2Xを提案する。
論文 参考訳(メタデータ) (2025-11-13T11:33:22Z) - Probabilistic Federated Prompt-Tuning with Non-IID and Imbalanced Data [35.47385526394076]
微調整事前学習モデルは、適度なデータで複雑なタスクを解決する機械学習の一般的なアプローチである。
事前訓練されたモデル全体を微調整することは、ローカルデータ分布が多様に歪んだフェデレーションデータシナリオでは効果がない。
提案手法は,フェデレーション学習を分散集合モデリングタスクに変換し,事前学習したモデルを世界規模で微調整するための多様なプロンプトを集約する。
論文 参考訳(メタデータ) (2025-02-27T04:31:34Z) - Transfer Your Perspective: Controllable 3D Generation from Any Viewpoint in a Driving Scene [56.73568220959019]
共同自動運転(CAV)は有望な方向のようだが、開発のためのデータ収集は簡単ではない。
本研究では,運転シーンにおける異なる視点から現実的な知覚を生み出すことを目的とした,救助支援のための新しいサロゲートを提案する。
シミュレーションされたコラボレーティブデータと実車データを組み合わせた,最初のソリューションを提案する。
論文 参考訳(メタデータ) (2025-02-10T17:07:53Z) - Task Groupings Regularization: Data-Free Meta-Learning with Heterogeneous Pre-trained Models [83.02797560769285]
Data-Free Meta-Learning (DFML)は、トレーニング済みモデルのコレクションから、元のデータにアクセスせずに知識を抽出することを目的としている。
現在の手法は、事前訓練されたモデル間の不均一性を見落とし、タスクの衝突による性能低下につながることが多い。
論文 参考訳(メタデータ) (2024-05-26T13:11:55Z) - On the Federated Learning Framework for Cooperative Perception [28.720571541022245]
フェデレーション学習は、コネクテッドおよび自律走行車間の認識、意思決定、計画において、データのプライバシ保護と協調的な拡張を可能にすることで、有望なソリューションを提供する。
本研究では,FedDWAアルゴリズム(Federated dynamic weighted aggregate, FedDWA)と呼ばれる,CPのための特殊な統合学習フレームワークを提案する。
このフレームワークは、動的クライアント重み付けをモデル収束の直接化に利用し、KLD(Kullback-Leibler divergence)を利用して非独立的かつ同一に分散された(Non-IID)データとアンバランスなデータの有害な影響を対処する新しい損失関数を統合する。
論文 参考訳(メタデータ) (2024-04-26T04:34:45Z) - An Extensible Framework for Open Heterogeneous Collaborative Perception [58.70875361688463]
協調的な知覚は、単一エージェントの知覚の限界を緩和することを目的としている。
本稿では,新しい異種エージェントを協調認識に適応させる方法を提案する。
本稿では,新しい協調認識フレームワークであるHeterogeneous ALliance(HEAL)を提案する。
論文 参考訳(メタデータ) (2024-01-25T05:55:03Z) - Towards Full-scene Domain Generalization in Multi-agent Collaborative Bird's Eye View Segmentation for Connected and Autonomous Driving [49.03947018718156]
協調的な知覚の訓練と推論の段階で利用される統合されたドメイン一般化フレームワークを提案する。
また、システム内ドメインアライメント機構を導入し、コネクテッドおよび自律走行車間のドメインの差を減らし、潜在的に排除する。
論文 参考訳(メタデータ) (2023-11-28T12:52:49Z) - Pre-trained Recommender Systems: A Causal Debiasing Perspective [19.712997823535066]
本研究では,異なるドメインから抽出した汎用ユーザ・イテムインタラクションデータをトレーニングすることで,ユニバーサルインタラクションパターンをキャプチャする汎用レコメンデータを開発する。
実験により,提案モデルにより,ゼロショットと少数ショットの学習環境での推薦性能が大幅に向上する可能性が示唆された。
論文 参考訳(メタデータ) (2023-10-30T03:37:32Z) - Heterogeneous Domain Adaptation and Equipment Matching: DANN-based
Alignment with Cyclic Supervision (DBACS) [3.4519649635864584]
この研究は、サイクリック・スーパービジョン(DBACS)アプローチによるドメイン適応ニューラルネットワークを導入している。
DBACSはドメイン適応によるモデル一般化の問題、特に異種データに対処する。
この作業には、サブスペースアライメントや、異種表現を扱う多視点学習も含まれる。
論文 参考訳(メタデータ) (2023-01-03T10:56:25Z) - Heterogeneous Federated Learning via Grouped Sequential-to-Parallel
Training [60.892342868936865]
フェデレートラーニング(Federated Learning, FL)は、プライバシ保護のためのコラボレーション機械学習パラダイムである。
本稿では,この課題に対処するため,データヘテロジニアス・ロバストFLアプローチであるFedGSPを提案する。
その結果,FedGSPは7つの最先端アプローチと比較して平均3.7%の精度向上を実現していることがわかった。
論文 参考訳(メタデータ) (2022-01-31T03:15:28Z) - Lifelong Unsupervised Domain Adaptive Person Re-identification with
Coordinated Anti-forgetting and Adaptation [127.6168183074427]
本稿では,LUDA (Lifelong Unsupervised Domain Adaptive) という新たなタスクを提案する。
これは、モデルがターゲット環境のラベル付けされていないデータに継続的に適応する必要があるため、難しい。
我々は、CLUDA-ReIDと呼ばれるこのタスクのための効果的なスキームを設計し、そこでは、アンチフォージェッティングが適応と調和して調整される。
論文 参考訳(メタデータ) (2021-12-13T13:19:45Z) - FedH2L: Federated Learning with Model and Statistical Heterogeneity [75.61234545520611]
フェデレートラーニング(FL)は、分散参加者が個々のデータのプライバシを犠牲にすることなく、強力なグローバルモデルを集合的に学習することを可能にする。
我々はFedH2Lを導入し、これはモデルアーキテクチャに非依存であり、参加者間で異なるデータ分散に対して堅牢である。
パラメータや勾配を共有するアプローチとは対照的に、FedH2Lは相互蒸留に依存し、参加者間で共有シードセットの後方のみを分散的に交換する。
論文 参考訳(メタデータ) (2021-01-27T10:10:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。