論文の概要: Leveraging Multi-stream Information Fusion for Trajectory Prediction in
Low-illumination Scenarios: A Multi-channel Graph Convolutional Approach
- arxiv url: http://arxiv.org/abs/2211.10226v1
- Date: Fri, 18 Nov 2022 13:25:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 14:08:42.094448
- Title: Leveraging Multi-stream Information Fusion for Trajectory Prediction in
Low-illumination Scenarios: A Multi-channel Graph Convolutional Approach
- Title(参考訳): 低照度シナリオにおける軌道予測にマルチストリーム情報融合を利用するマルチチャネルグラフ畳み込み手法
- Authors: Hailong Gong, Zirui Li, Chao Lu, Guodong Du, Jianwei Gong
- Abstract要約: 軌道予測は自動運転車の基本的な問題であり課題である。
本稿では,マルチストリーム情報融合を利用した低照度シナリオにおける軌道予測手法を提案する。
- 参考スコア(独自算出の注目度): 8.671486571411796
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Trajectory prediction is a fundamental problem and challenge for autonomous
vehicles. Early works mainly focused on designing complicated architectures for
deep-learning-based prediction models in normal-illumination environments,
which fail in dealing with low-light conditions. This paper proposes a novel
approach for trajectory prediction in low-illumination scenarios by leveraging
multi-stream information fusion, which flexibly integrates image, optical flow,
and object trajectory information. The image channel employs Convolutional
Neural Network (CNN) and Long Short-term Memory (LSTM) networks to extract
temporal information from the camera. The optical flow channel is applied to
capture the pattern of relative motion between adjacent camera frames and
modelled by Spatial-Temporal Graph Convolutional Network (ST-GCN). The
trajectory channel is used to recognize high-level interactions between
vehicles. Finally, information from all the three channels is effectively fused
in the prediction module to generate future trajectories of surrounding
vehicles in low-illumination conditions. The proposed multi-channel graph
convolutional approach is validated on HEV-I and newly generated Dark-HEV-I,
egocentric vision datasets that primarily focus on urban intersection
scenarios. The results demonstrate that our method outperforms the baselines,
in standard and low-illumination scenarios. Additionally, our approach is
generic and applicable to scenarios with different types of perception data.
The source code of the proposed approach is available at
https://github.com/TommyGong08/MSIF}{https://github.com/TommyGong08/MSIF.
- Abstract(参考訳): 軌道予測は自動運転車の基本的な問題であり課題である。
初期の研究は主に、低照度環境での深層学習に基づく予測モデルのための複雑なアーキテクチャの設計に重点を置いていた。
本稿では,画像,光流,物体軌道情報を柔軟に統合するマルチストリーム情報融合を利用して,低照度シナリオにおける軌道予測手法を提案する。
画像チャネルは畳み込みニューラルネットワーク(cnn)とlong short-term memory(lstm)ネットワークを使用して、カメラから時間情報を抽出する。
光流路は、隣接するカメラフレーム間の相対運動パターンを捕捉し、空間時間グラフ畳み込みネットワーク(ST-GCN)でモデル化する。
軌道チャネルは、車両間の高レベル相互作用を認識するために使用される。
最後に, 予測モジュールに3つのチャネルの情報を効果的に融合させて, 低照度条件下で周辺車両の将来の軌跡を生成する。
提案する多チャンネルグラフ畳み込み手法はhev-iと新たに生成されたダークhev-i,エゴセントリックビジョンデータセットで検証される。
その結果,本手法は標準および低照度シナリオにおいてベースラインよりも優れていた。
さらに,このアプローチは汎用的であり,知覚データの種類が異なるシナリオに適用可能である。
提案されたアプローチのソースコードはhttps://github.com/TommyGong08/MSIF}{https://github.com/TommyGong08/MSIFで入手できる。
関連論文リスト
- Optical Flow Matters: an Empirical Comparative Study on Fusing Monocular Extracted Modalities for Better Steering [37.46760714516923]
本研究は、単眼カメラからのマルチモーダル情報を利用して、自動運転車のステアリング予測を改善する新しいエンドツーエンド手法を提案する。
本稿では,RGB画像と深度補完情報や光フローデータとの融合に着目し,これらのモダリティを早期・ハイブリッド融合技術によって統合する枠組みを提案する。
論文 参考訳(メタデータ) (2024-09-18T09:36:24Z) - A Multi-Graph Convolutional Neural Network Model for Short-Term Prediction of Turning Movements at Signalized Intersections [0.6215404942415159]
本研究では,交差点での移動予測を回転させる多グラフ畳み込みニューラルネットワーク(MGCNN)と呼ばれる新しいディープラーニングアーキテクチャを提案する。
提案アーキテクチャは,トラフィックデータの時間変動をモデル化する多グラフ構造と,グラフ上のトラフィックデータの空間変動をモデル化するためのスペクトル畳み込み演算を組み合わせた。
モデルが1, 2, 3, 4, 5分後に短期予測を行う能力は,4つのベースライン・オブ・ザ・アーティファクトモデルに対して評価された。
論文 参考訳(メタデータ) (2024-06-02T05:41:25Z) - A Holistic Framework Towards Vision-based Traffic Signal Control with
Microscopic Simulation [53.39174966020085]
交通信号制御(TSC)は交通渋滞を低減し、交通の流れを円滑にし、アイドリング時間を短縮し、CO2排出量を減らすために重要である。
本研究では,道路交通の流れを視覚的観察によって調節するTSCのコンピュータビジョンアプローチについて検討する。
我々は、視覚ベースのTSCとそのベンチマークに向けて、TrafficDojoと呼ばれる総合的なトラフィックシミュレーションフレームワークを導入する。
論文 参考訳(メタデータ) (2024-03-11T16:42:29Z) - Wavelet-Inspired Multiscale Graph Convolutional Recurrent Network for
Traffic Forecasting [0.0]
本稿では,マルチスケール解析(MSA)法とディープラーニング(DL)法を組み合わせたグラフ・コンパス・リカレント・ネットワーク(WavGCRN)を提案する。
提案手法は,現実のトラフィックデータセット上での解釈可能性,強力な学習能力,および競合予測性能を提供する。
論文 参考訳(メタデータ) (2024-01-11T16:55:48Z) - Hierarchical Graph Pattern Understanding for Zero-Shot VOS [102.21052200245457]
本稿では、ゼロショットビデオオブジェクトセグメンテーション(ZS-VOS)のための新しい階層型グラフニューラルネットワーク(GNN)アーキテクチャを提案する。
構造的関係を捕捉するGNNの強い能力にインスパイアされたHGPUは、運動キュー(すなわち光の流れ)を革新的に活用し、ターゲットフレームの隣人からの高次表現を強化する。
論文 参考訳(メタデータ) (2023-12-15T04:13:21Z) - Dynamic Hypergraph Structure Learning for Traffic Flow Forecasting [35.0288931087826]
交通流予測は、過去のネットワークと交通条件に基づいて将来の交通状況を予測することを目的としている。
この問題は、遠時ニューラルネットワーク(GNN)を用いた交通データにおける複雑な時間相関をモデル化することによって、典型的に解決される。
既存の手法は、近隣情報を線形に集約するメッセージパッシングのパラダイムに従っている。
本稿では,交通流予測のための動的ハイパー構造学習(DyHSL)モデルを提案する。
論文 参考訳(メタデータ) (2023-09-21T12:44:55Z) - A Novel Deep Neural Network for Trajectory Prediction in Automated
Vehicles Using Velocity Vector Field [12.067838086415833]
本稿では,データ駆動学習に基づく手法と,自然に着想を得た概念から生成された速度ベクトル場(VVF)を組み合わせた軌道予測手法を提案する。
精度は、正確な軌道予測のための過去の観測の長い歴史の要求を緩和する観測窓の減少と一致している。
論文 参考訳(メタデータ) (2023-09-19T22:14:52Z) - PDFormer: Propagation Delay-Aware Dynamic Long-Range Transformer for
Traffic Flow Prediction [78.05103666987655]
空間時空間グラフニューラルネットワーク(GNN)モデルは、この問題を解決する最も有望な方法の1つである。
本稿では,交通流の正確な予測を行うために,遅延を意識した動的長距離トランスフォーマー(PDFormer)を提案する。
提案手法は,最先端の性能を達成するだけでなく,計算効率の競争力も発揮できる。
論文 参考訳(メタデータ) (2023-01-19T08:42:40Z) - Aerial Images Meet Crowdsourced Trajectories: A New Approach to Robust
Road Extraction [110.61383502442598]
我々は、Cross-Modal Message Propagation Network (CMMPNet)と呼ばれる新しいニューラルネットワークフレームワークを紹介する。
CMMPNetは、モダリティ固有の表現学習のための2つのディープオートエンコーダと、クロスモーダル表現洗練のためのテーラー設計のデュアルエンハンスメントモジュールで構成されている。
実世界の3つのベンチマーク実験により, CMMPNetによる堅牢な道路抽出の有効性が示された。
論文 参考訳(メタデータ) (2021-11-30T04:30:10Z) - Learning Monocular Dense Depth from Events [53.078665310545745]
イベントカメラは、強度フレームではなく、非同期イベントのストリームの形式で輝度を変化させる。
最近の学習に基づくアプローチは、単眼深度予測のようなイベントベースのデータに適用されている。
本稿では,この課題を解決するための繰り返しアーキテクチャを提案し,標準フィードフォワード法よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-10-16T12:36:23Z) - Cascaded Deep Video Deblurring Using Temporal Sharpness Prior [88.98348546566675]
提案アルゴリズムは主に,中間潜水フレームと潜水フレームの復元ステップから光フローを推定する。
まず、中間潜伏フレームから光フローを推定し、推定した光フローに基づいて潜伏フレームを復元する深部CNNモデルを開発する。
ビデオデブロアリングのドメイン知識を探索することで、深層CNNモデルをよりコンパクトで効率的なものにすることができることを示す。
論文 参考訳(メタデータ) (2020-04-06T09:13:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。