論文の概要: TraF-Align: Trajectory-aware Feature Alignment for Asynchronous Multi-agent Perception
- arxiv url: http://arxiv.org/abs/2503.19391v1
- Date: Tue, 25 Mar 2025 06:56:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-26 16:54:10.927715
- Title: TraF-Align: Trajectory-aware Feature Alignment for Asynchronous Multi-agent Perception
- Title(参考訳): TraF-Align:非同期マルチエージェント知覚のための軌道認識機能アライメント
- Authors: Zhiying Song, Lei Yang, Fuxi Wen, Jun Li,
- Abstract要約: TraF-Alignは、過去の観測からエゴ車両の現在までの物体の特徴レベル軌道を予測することによって、特徴のフローパスを学習する。
このアプローチは空間的不整合を補正し、エージェント間のセマンティックな一貫性を確保し、効果的に動きを補償する。
2つの実世界のデータセットであるV2V4RealとDAIR-V2X-Seqの実験は、TraF-Alignが非同期協調知覚のための新しいベンチマークを設定していることを示している。
- 参考スコア(独自算出の注目度): 7.382491303268417
- License:
- Abstract: Cooperative perception presents significant potential for enhancing the sensing capabilities of individual vehicles, however, inter-agent latency remains a critical challenge. Latencies cause misalignments in both spatial and semantic features, complicating the fusion of real-time observations from the ego vehicle with delayed data from others. To address these issues, we propose TraF-Align, a novel framework that learns the flow path of features by predicting the feature-level trajectory of objects from past observations up to the ego vehicle's current time. By generating temporally ordered sampling points along these paths, TraF-Align directs attention from the current-time query to relevant historical features along each trajectory, supporting the reconstruction of current-time features and promoting semantic interaction across multiple frames. This approach corrects spatial misalignment and ensures semantic consistency across agents, effectively compensating for motion and achieving coherent feature fusion. Experiments on two real-world datasets, V2V4Real and DAIR-V2X-Seq, show that TraF-Align sets a new benchmark for asynchronous cooperative perception.
- Abstract(参考訳): 協調的な知覚は、個々の車両の感知能力を高める重要な可能性を示すが、エージェント間遅延は依然として重要な課題である。
遅延は空間的特徴と意味的特徴の両方において不一致を引き起こし、エゴ車からのリアルタイム観測と他の車からの遅延データとの融合を複雑にする。
これらの問題に対処するために,過去の観測からエゴ車両の現在までの物体の特徴レベルの軌跡を予測し,特徴のフローパスを学習する新しいフレームワークであるTraF-Alignを提案する。
これらの経路に沿って時間的に順序付けられたサンプリングポイントを生成することで、TraF-Alignは、現在のクエリから各トラジェクトリに沿った関連する歴史的特徴に注意を向け、現在の特徴の再構築をサポートし、複数のフレーム間での意味的相互作用を促進する。
このアプローチは空間的不整合を補正し、エージェント間のセマンティック一貫性を確保し、効率的に動きを補償し、コヒーレントな特徴融合を実現する。
2つの実世界のデータセットであるV2V4RealとDAIR-V2X-Seqの実験は、TraF-Alignが非同期協調知覚のための新しいベンチマークを設定していることを示している。
関連論文リスト
- Cross Space and Time: A Spatio-Temporal Unitized Model for Traffic Flow Forecasting [16.782154479264126]
時間的要因間の複雑な相互作用により、バックボーン・時間的トラフィックフローを予測することが課題となる。
既存のアプローチでは、これらの次元を分離し、重要な相互依存を無視している。
本稿では,空間的および時間的依存関係の両方をキャプチャする統合フレームワークであるSanonymous-Temporal Unitized Unitized Cell (ASTUC)を紹介する。
論文 参考訳(メタデータ) (2024-11-14T07:34:31Z) - StreamLTS: Query-based Temporal-Spatial LiDAR Fusion for Cooperative Object Detection [0.552480439325792]
我々は、広く使われているデータセットOPV2VとDairV2Xを適応させる、TA-COOD(Time-Aligned Cooperative Object Detection)を提案する。
実験結果から, 最先端の高密度モデルと比較して, 完全スパースフレームワークの優れた効率性が確認された。
論文 参考訳(メタデータ) (2024-07-04T10:56:10Z) - Bidirectional Progressive Transformer for Interaction Intention Anticipation [20.53329698350243]
双方向進行機構を相互作用意図の予測に導入する。
トラジェクトリユニットとC-VAEを用いて、トラジェクトリや相互作用ホットスポットに適切な不確実性を導入する。
提案手法は,3つのベンチマークデータセットの最先端結果を実現する。
論文 参考訳(メタデータ) (2024-05-09T05:22:18Z) - Triplet Attention Transformer for Spatiotemporal Predictive Learning [9.059462850026216]
本稿では,フレーム間動的特徴とフレーム内静的特徴の両方を捉えるために,革新的な三重項注意変換器を提案する。
このモデルはトリプレット・アテンション・モジュール(TAM)を組み込んだもので、時間、空間、チャネル次元における自己アテンションのメカニズムを探求することで、従来のリカレント・ユニットを置き換える。
論文 参考訳(メタデータ) (2023-10-28T12:49:33Z) - Modeling Continuous Motion for 3D Point Cloud Object Tracking [54.48716096286417]
本稿では,各トラックレットを連続ストリームとみなす新しいアプローチを提案する。
各タイムスタンプでは、現在のフレームだけがネットワークに送られ、メモリバンクに格納された複数フレームの履歴機能と相互作用する。
頑健な追跡のためのマルチフレーム機能の利用性を高めるために,コントラッシブシーケンス強化戦略を提案する。
論文 参考訳(メタデータ) (2023-03-14T02:58:27Z) - Joint Spatial-Temporal and Appearance Modeling with Transformer for
Multiple Object Tracking [59.79252390626194]
本稿ではTransSTAMという新しい手法を提案する。Transformerを利用して各オブジェクトの外観特徴とオブジェクト間の空間的時間的関係の両方をモデル化する。
提案手法はMOT16, MOT17, MOT20を含む複数の公開ベンチマークで評価され, IDF1とHOTAの両方で明確な性能向上を実現している。
論文 参考訳(メタデータ) (2022-05-31T01:19:18Z) - Continuity-Discrimination Convolutional Neural Network for Visual Object
Tracking [150.51667609413312]
本稿では,視覚オブジェクト追跡のためのContinuity-Discrimination Convolutional Neural Network (CD-CNN) という新しいモデルを提案する。
この問題に対処するため、cd-cnnは時間的遅れの概念に基づいた時間的外観連続性をモデル化する。
不正確なターゲットの定位とドリフトを緩和するために,新しい概念 object-centroid を提案する。
論文 参考訳(メタデータ) (2021-04-18T06:35:03Z) - A Spatial-Temporal Attentive Network with Spatial Continuity for
Trajectory Prediction [74.00750936752418]
空間連続性をもつ空間時間減衰ネットワーク(STAN-SC)という新しいモデルを提案する。
まず、最も有用かつ重要な情報を探るために、空間的時間的注意機構を提示する。
第2に、生成軌道の空間的連続性を維持するために、シーケンスと瞬間状態情報に基づく共同特徴系列を実行する。
論文 参考訳(メタデータ) (2020-03-13T04:35:50Z) - Spatial-Temporal Transformer Networks for Traffic Flow Forecasting [74.76852538940746]
本稿では,長期交通予測の精度を向上させるため,時空間変圧器ネットワーク(STTN)の新たなパラダイムを提案する。
具体的には、有向空間依存を動的にモデル化することにより、空間変換器と呼ばれる新しいグラフニューラルネットワークを提案する。
提案モデルにより,長期間にわたる空間的依存関係に対する高速かつスケーラブルなトレーニングが可能になる。
論文 参考訳(メタデータ) (2020-01-09T10:21:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。