論文の概要: Cyclist Trajectory Forecasts by Incorporation of Multi-View Video
Information
- arxiv url: http://arxiv.org/abs/2106.15991v1
- Date: Wed, 30 Jun 2021 11:34:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-01 14:53:02.708131
- Title: Cyclist Trajectory Forecasts by Incorporation of Multi-View Video
Information
- Title(参考訳): マルチビュー映像情報の導入による自転車軌道予測
- Authors: Stefan Zernetsch and Oliver Trupp and Viktor Kress and Konrad Doll and
Bernhard Sick
- Abstract要約: 本稿では,都市交差点に設置した広角ステレオカメラシステムによる映像データからの視覚的手がかりを,サイクリストの軌道予測に組み込む新しい手法を提案する。
本研究では,3次元畳み込みニューラルネットワーク(3D-ConvNet)を用いて画像および光学的流れ列から特徴を抽出し,その特徴をサイクリストの過去の軌道から抽出した特徴と組み合わせ,将来のサイクリストの位置を予測する。
- 参考スコア(独自算出の注目度): 2.984037222955095
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: This article presents a novel approach to incorporate visual cues from
video-data from a wide-angle stereo camera system mounted at an urban
intersection into the forecast of cyclist trajectories. We extract features
from image and optical flow (OF) sequences using 3D convolutional neural
networks (3D-ConvNet) and combine them with features extracted from the
cyclist's past trajectory to forecast future cyclist positions. By the use of
additional information, we are able to improve positional accuracy by about 7.5
% for our test dataset and by up to 22 % for specific motion types compared to
a method solely based on past trajectories. Furthermore, we compare the use of
image sequences to the use of OF sequences as additional information, showing
that OF alone leads to significant improvements in positional accuracy. By
training and testing our methods using a real-world dataset recorded at a
heavily frequented public intersection and evaluating the methods' runtimes, we
demonstrate the applicability in real traffic scenarios. Our code and parts of
our dataset are made publicly available.
- Abstract(参考訳): 本稿では,都市交差点に設置した広角ステレオカメラシステムからの映像データからの視覚手がかりを,自転車の軌道予測に組み込む新しい手法を提案する。
我々は,3次元畳み込みニューラルネットワーク(3D-ConvNet)を用いて,画像および光フロー(OF)配列から特徴を抽出し,サイクリストの過去の軌道から抽出した特徴と組み合わせ,将来のサイクリストの位置を予測する。
追加情報を用いることで,過去のトラジェクタのみに基づく手法と比較して,テストデータセットで約7.5%,特定動作タイプで最大22%の位置精度を向上させることができる。
さらに,画像列の使用と追加情報としてのシーケンスの使用を比較し,単独で位置精度が大幅に向上することを示す。
頻繁な公開交差点で記録された実世界のデータセットを使用してメソッドのトレーニングとテストを行い、実際のトラフィックシナリオにおける適用性を示す。
私たちのコードとデータセットの一部が公開されています。
関連論文リスト
- PointOdyssey: A Large-Scale Synthetic Dataset for Long-Term Point
Tracking [90.29143475328506]
本稿では,大規模合成データセットとデータ生成フレームワークであるPointOdysseyを紹介する。
私たちのゴールは、自然主義的な動きを持つ長いビデオに重点を置いて、最先端の技術を推し進めることです。
実世界のモーションキャプチャーデータを用いて変形可能なキャラクタをアニメーション化し、モーションキャプチャー環境に合わせて3Dシーンを構築し、リアルビデオ上で構造から抽出したトラジェクトリを用いてカメラ視点を描画する。
論文 参考訳(メタデータ) (2023-07-27T17:58:11Z) - Automatic vehicle trajectory data reconstruction at scale [2.010294990327175]
本稿では,視覚に基づく車両軌道データにおける共通誤差を補正する自動軌道データ照合法を提案する。
本手法により, 実験対象の入力データの精度が向上し, 広い範囲で精度が向上することを示す。
論文 参考訳(メタデータ) (2022-12-15T15:39:55Z) - Cross-Camera Trajectories Help Person Retrieval in a Camera Network [124.65912458467643]
既存の手法では、純粋な視覚的マッチングや時間的制約を考慮することが多いが、カメラネットワークの空間情報は無視する。
本稿では,時間的情報と空間的情報を統合したクロスカメラ生成に基づく歩行者検索フレームワークを提案する。
本手法の有効性を検証するため,最初のカメラ横断歩行者軌跡データセットを構築した。
論文 参考訳(メタデータ) (2022-04-27T13:10:48Z) - Weakly Supervised Training of Monocular 3D Object Detectors Using Wide
Baseline Multi-view Traffic Camera Data [19.63193201107591]
交差点における車両の7DoF予測は,道路利用者間の潜在的な衝突を評価する上で重要な課題である。
交通監視カメラ用3次元物体検出装置の微調整を弱教師付きで行う手法を開発した。
提案手法は,自動運転車のデータセット上で最上位のモノクル3Dオブジェクト検出器と同等の精度で車両の7DoFの予測精度を推定する。
論文 参考訳(メタデータ) (2021-10-21T08:26:48Z) - HighlightMe: Detecting Highlights from Human-Centric Videos [52.84233165201391]
我々は,人間中心のビデオからハイライト可能な抜粋を検出するために,ドメインとユーザに依存しないアプローチを提案する。
本研究では,時空間グラフ畳み込みを用いたオートエンコーダネットワークを用いて,人間の活動やインタラクションを検出する。
我々は,最先端の手法に比べて,人手によるハイライトのマッチングの平均精度が4~12%向上したことを観察した。
論文 参考訳(メタデータ) (2021-10-05T01:18:15Z) - Monocular Quasi-Dense 3D Object Tracking [99.51683944057191]
周囲の物体の将来の位置を予測し、自律運転などの多くのアプリケーションで観測者の行動を計画するためには、信頼性と正確な3D追跡フレームワークが不可欠である。
移動プラットフォーム上で撮影された2次元画像のシーケンスから,移動物体を時間とともに効果的に関連付け,その全3次元バウンディングボックス情報を推定するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-12T15:30:02Z) - Robust 2D/3D Vehicle Parsing in CVIS [54.825777404511605]
本研究では,協調型車両インフラシステム(CVIS)の一環として,異なるカメラビューの車両を堅牢に検出・認識する新しいアプローチを提案する。
提案方式は任意のカメラビュー向けに設計されており,本質的パラメータや外部的パラメータを仮定しない。
実際に,本手法は2次元検出,インスタンスセグメンテーション,6-DoFのポーズ推定においてSOTA法より優れている。
論文 参考訳(メタデータ) (2021-03-11T03:35:05Z) - Vehicle Trajectory Prediction in Crowded Highway Scenarios Using Bird
Eye View Representations and CNNs [0.0]
本稿では,図形表現を用いた車両軌道予測の新しい手法について述べる。
この問題は、交通参加者間の基盤となる関係を学習するためにネットワークを訓練する画像回帰問題である。
このモデルは2つの反対の交通流で同時に30台以上の車両で高速道路のシナリオでテストされている。
論文 参考訳(メタデータ) (2020-08-26T11:15:49Z) - Crowdsourced 3D Mapping: A Combined Multi-View Geometry and
Self-Supervised Learning Approach [10.610403488989428]
本稿では,意味的意味のあるランドマークの3次元位置を,カメラ固有の知識を仮定せずに推定するフレームワークを提案する。
交通標識の位置推定には,多視点幾何と深層学習に基づく自己校正,深度,エゴモーション推定を利用する。
我々はそれぞれ39cmと1.26mの平均単方向相対位置と絶対位置の精度を達成した。
論文 参考訳(メタデータ) (2020-07-25T12:10:16Z) - AutoTrajectory: Label-free Trajectory Extraction and Prediction from
Videos using Dynamic Points [92.91569287889203]
軌道抽出と予測のための新しいラベルなしアルゴリズムAutoTrajectoryを提案する。
動画中の移動物体をよりよく捉えるために,ダイナミックポイントを導入する。
ビデオ内の歩行者などの移動物体を表すインスタンスポイントに動的ポイントを集約する。
論文 参考訳(メタデータ) (2020-07-11T08:43:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。