論文の概要: mmCooper: A Multi-agent Multi-stage Communication-efficient and Collaboration-robust Cooperative Perception Framework
- arxiv url: http://arxiv.org/abs/2501.12263v2
- Date: Sat, 22 Mar 2025 07:42:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-25 14:29:52.967096
- Title: mmCooper: A Multi-agent Multi-stage Communication-efficient and Collaboration-robust Cooperative Perception Framework
- Title(参考訳): mmCooper: マルチエージェント多段階コミュニケーション効率とコラボレーション・ロバスト協調認識フレームワーク
- Authors: Bingyi Liu, Jian Teng, Hongfei Xue, Enshu Wang, Chuanhui Zhu, Pu Wang, Libing Wu,
- Abstract要約: mmCooperは、新しいマルチエージェント、マルチステージ、コミュニケーション効率、コラボロバストな協調認識フレームワークである。
本フレームワークはエージェント間の情報共有のための中間段階と後期段階の情報をバランスさせ,コミュニケーション効率を維持しつつ知覚性能を向上させる。
- 参考スコア(独自算出の注目度): 12.896563384343889
- License:
- Abstract: Collaborative perception significantly enhances individual vehicle perception performance through the exchange of sensory information among agents. However, real-world deployment faces challenges due to bandwidth constraints and inevitable calibration errors during information exchange. To address these issues, we propose mmCooper, a novel multi-agent, multi-stage, communication-efficient, and collaboration-robust cooperative perception framework. Our framework leverages a multi-stage collaboration strategy that dynamically and adaptively balances intermediate- and late-stage information to share among agents, enhancing perceptual performance while maintaining communication efficiency. To support robust collaboration despite potential misalignments and calibration errors, our framework prevents misleading low-confidence sensing information from transmission and refines the received detection results from collaborators to improve accuracy. The extensive evaluation results on both real-world and simulated datasets demonstrate the effectiveness of the mmCooper framework and its components.
- Abstract(参考訳): 協調知覚は、エージェント間の感覚情報の交換を通じて、個々の車両知覚性能を著しく向上させる。
しかし、実世界の展開は、情報交換時の帯域制限と不可避な校正誤差のために困難に直面している。
これらの課題に対処するため,新しいマルチエージェント,マルチステージ,コミュニケーション効率,協調的協調認識フレームワークであるmmCooperを提案する。
本フレームワークは,エージェント間での情報共有を動的かつ適応的に行う多段階協調戦略を活用し,コミュニケーション効率を維持しながら知覚性能を向上させる。
誤調整や校正ミスの可能性があるにもかかわらず、ロバストな協調を支援するため、我々のフレームワークは、低信頼感情報を送信から誤解を招くのを防ぎ、受信した検出結果をコラボレータから改善し、精度を向上させる。
実世界のデータセットとシミュレーションデータセットの両方に対する広範な評価結果は、mmCooperフレームワークとそのコンポーネントの有効性を示している。
関連論文リスト
- Communication Learning in Multi-Agent Systems from Graph Modeling Perspective [62.13508281188895]
本稿では,エージェント間の通信アーキテクチャを学習可能なグラフとして概念化する手法を提案する。
本稿では,各エージェントに対して時間的ゲーティング機構を導入し,ある時間に共有情報を受信するかどうかの動的決定を可能にする。
論文 参考訳(メタデータ) (2024-11-01T05:56:51Z) - Improving Multi-Agent Debate with Sparse Communication Topology [9.041025703879905]
マルチエージェントの議論は、推論や事実性タスクのための大規模言語モデルの品質向上に有効であることが証明されている。
本稿では,マルチエージェントシステムにおける通信接続の効果について検討する。
GPTモデルとMistralモデルを用いた実験により,疎通信トポロジを利用したマルチエージェントの議論が同等あるいは優れた性能を達成できることが判明した。
論文 参考訳(メタデータ) (2024-06-17T17:33:09Z) - What Makes Good Collaborative Views? Contrastive Mutual Information Maximization for Multi-Agent Perception [52.41695608928129]
マルチエージェント認識(MAP)は、複数のソースからのデータを解釈することで、自律システムが複雑な環境を理解することを可能にする。
本稿では,MAPにおける協調的視点の「良い」特性を探求することに焦点を当てた中間的協調について検討する。
中間コラボレーションのための新しいフレームワークCMiMCを提案する。
論文 参考訳(メタデータ) (2024-03-15T07:18:55Z) - T2MAC: Targeted and Trusted Multi-Agent Communication through Selective
Engagement and Evidence-Driven Integration [15.91335141803629]
我々は、エージェントが選択的なエンゲージメントとエビデンス駆動の統合を学ぶのを助けるために、T2MAC(Targeted and Trusted Multi-Agent Communication)を提案する。
T2MACは、エージェントが個別化されたメッセージを作成し、理想的なコミュニケーションウィンドウをピンポイントし、信頼できるパートナーと対話することを可能にする。
本手法は,様々な課題を伴って,多様な協調型マルチエージェントタスクに対して評価を行う。
論文 参考訳(メタデータ) (2024-01-19T18:00:33Z) - AntEval: Evaluation of Social Interaction Competencies in LLM-Driven
Agents [65.16893197330589]
大規模言語モデル(LLM)は、幅広いシナリオで人間の振る舞いを再現する能力を示した。
しかし、複雑なマルチ文字のソーシャルインタラクションを扱う能力については、まだ完全には研究されていない。
本稿では,新しいインタラクションフレームワークと評価手法を含むマルチエージェントインタラクション評価フレームワーク(AntEval)を紹介する。
論文 参考訳(メタデータ) (2024-01-12T11:18:00Z) - Re-mine, Learn and Reason: Exploring the Cross-modal Semantic
Correlations for Language-guided HOI detection [57.13665112065285]
ヒューマンオブジェクトインタラクション(HOI)検出は、コンピュータビジョンの課題である。
本稿では,構造化テキスト知識を組み込んだHOI検出フレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-25T14:20:52Z) - Attention Based Feature Fusion For Multi-Agent Collaborative Perception [4.120288148198388]
グラフアテンションネットワーク(GAT)の形での中間的協調認識ソリューションを提案する。
提案手法は,複数の連結エージェント間で交換される中間表現を融合するアテンションベースのアグリゲーション戦略を開発する。
このアプローチは、チャネルレベルと空間レベルの中間特徴写像における重要な領域を適応的に強調することにより、オブジェクト検出精度が向上する。
論文 参考訳(メタデータ) (2023-05-03T12:06:11Z) - UMC: A Unified Bandwidth-efficient and Multi-resolution based
Collaborative Perception Framework [20.713675020714835]
UMCと呼ばれる統一協調認識フレームワークを提案する。
マルチレゾリューション技術を用いて,コミュニケーション,コラボレーション,再構築プロセスの最適化を図っている。
実験の結果,提案したUTCは,最先端の協調認識手法よりも優れていたことが確認された。
論文 参考訳(メタデータ) (2023-03-22T09:09:02Z) - Provably Efficient Cooperative Multi-Agent Reinforcement Learning with
Function Approximation [15.411902255359074]
定常的な通信予算を一定に保っても,ほぼ最適に学習できることを示す。
私たちの仕事は、マルチエージェントコンテキストとマルチアームバンディット文学からMDP、強化学習まで、いくつかのアイデアを一般化します。
論文 参考訳(メタデータ) (2021-03-08T18:51:00Z) - Learning to Communicate and Correct Pose Errors [75.03747122616605]
本稿では、V2VNetで提案された設定について検討し、近くにある自動運転車が共同で物体検出と動き予測を協調的に行う方法を提案する。
本稿では,コミュニケーションを学習し,潜在的な誤りを推定し,それらの誤りについてコンセンサスを得るための新しいニューラルネットワーク推論フレームワークを提案する。
論文 参考訳(メタデータ) (2020-11-10T18:19:40Z) - On Emergent Communication in Competitive Multi-Agent Teams [116.95067289206919]
外部のエージェントチームによるパフォーマンスの競争が社会的影響として作用するかどうかを検討する。
以上の結果から,外部競争の影響により精度と一般化が向上し,コミュニケーション言語が急速に出現することが示唆された。
論文 参考訳(メタデータ) (2020-03-04T01:14:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。