論文の概要: Deep Learning for Vision-based Prediction: A Survey
- arxiv url: http://arxiv.org/abs/2007.00095v2
- Date: Wed, 22 Jul 2020 15:33:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 05:38:55.657838
- Title: Deep Learning for Vision-based Prediction: A Survey
- Title(参考訳): 視覚に基づく予測のためのディープラーニング:調査
- Authors: Amir Rasouli
- Abstract要約: ビジョンベースの予測アルゴリズムには、自律運転、監視、人間とロボットのインタラクション、天気予報など、幅広い応用がある。
本稿では,過去5年間の分野の概要を述べるとともに,深層学習のアプローチに焦点をあてる。
- 参考スコア(独自算出の注目度): 6.840474688871695
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vision-based prediction algorithms have a wide range of applications
including autonomous driving, surveillance, human-robot interaction, weather
prediction. The objective of this paper is to provide an overview of the field
in the past five years with a particular focus on deep learning approaches. For
this purpose, we categorize these algorithms into video prediction, action
prediction, trajectory prediction, body motion prediction, and other prediction
applications. For each category, we highlight the common architectures,
training methods and types of data used. In addition, we discuss the common
evaluation metrics and datasets used for vision-based prediction tasks. A
database of all the information presented in this survey including,
cross-referenced according to papers, datasets and metrics, can be found online
at https://github.com/aras62/vision-based-prediction.
- Abstract(参考訳): 視覚に基づく予測アルゴリズムは、自動運転、監視、人間とロボットのインタラクション、天気予報など、幅広い応用がある。
本研究の目的は,過去5年間の分野の概要を,深層学習のアプローチに焦点をあてて明らかにすることである。
そこで本研究では,これらのアルゴリズムを,映像予測,行動予測,軌道予測,身体動作予測,その他の予測アプリケーションに分類する。
各カテゴリについて、使用する共通アーキテクチャ、トレーニング方法、データの種類を強調する。
さらに,視覚に基づく予測タスクに使用される共通評価指標とデータセットについて述べる。
論文、データセット、メトリクスによる相互参照を含む、この調査で提示されたすべての情報のデータベースは、https://github.com/aras62/vision-based-prediction.com/で見ることができる。
関連論文リスト
- Human Action Anticipation: A Survey [86.415721659234]
行動予測に関する文献は、行動予測、活動予測、意図予測、目標予測など、様々なタスクにまたがる。
我々の調査は、この断片化された文献を結びつけることを目的としており、最近の技術革新とモデルトレーニングと評価のための新しい大規模データセットの開発をカバーしています。
論文 参考訳(メタデータ) (2024-10-17T21:37:40Z) - A Control-Centric Benchmark for Video Prediction [69.22614362800692]
本稿では,アクション条件付きビデオ予測のベンチマークを,制御ベンチマークの形式で提案する。
私たちのベンチマークには、11のタスクカテゴリと310のタスクインスタンス定義を備えたシミュレーション環境が含まれています。
次に、ベンチマークを活用して、スケールするモデルサイズ、トレーニングデータの量、モデルアンサンブルの影響を調査します。
論文 参考訳(メタデータ) (2023-04-26T17:59:45Z) - Multi-Vehicle Trajectory Prediction at Intersections using State and
Intention Information [50.40632021583213]
道路員の将来の軌跡予測への伝統的なアプローチは、過去の軌跡を知ることに依存している。
この研究は、交差点で複数の車両の予測を行うために、現在の状態と意図された方向を知ることに依存する。
この情報を車両間で送るメッセージは、それぞれがより総合的な環境概要を提供する。
論文 参考訳(メタデータ) (2023-01-06T15:13:23Z) - 3D Human Motion Prediction: A Survey [23.605334184939164]
人間の3D動作予測は、与えられたシーケンスから将来のポーズを予測するもので、コンピュータビジョンとマシンインテリジェンスにおいて大きな重要性と課題である。
既存の公開文献からの関連作品のふりかえりと分析を目的として, 人間の3次元動作予測に関する総合的な調査を行った。
論文 参考訳(メタデータ) (2022-03-03T09:46:43Z) - SLPC: a VRNN-based approach for stochastic lidar prediction and
completion in autonomous driving [63.87272273293804]
VRNN(Variiational Recurrent Neural Networks)と呼ばれる生成モデルに基づく新しいLiDAR予測フレームワークを提案する。
提案手法は,フレーム内の奥行きマップを空間的に塗り替えることで,スパースデータを扱う際の従来のビデオ予測フレームワークの限界に対処できる。
VRNNのスパースバージョンとラベルを必要としない効果的な自己監督型トレーニング方法を紹介します。
論文 参考訳(メタデータ) (2021-02-19T11:56:44Z) - PePScenes: A Novel Dataset and Baseline for Pedestrian Action Prediction
in 3D [10.580548257913843]
nuScenesにフレーム毎の2D/3Dバウンディングボックスと動作アノテーションを追加して作成された新しい歩行者行動予測データセットを提案する。
また,歩行者横断行動予測のための様々なデータモダリティを組み込んだハイブリッドニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-12-14T18:13:44Z) - A Review on Deep Learning Techniques for Video Prediction [3.203688549673373]
将来の成果を予測し、予測し、推論する能力は、インテリジェントな意思決定システムの重要な構成要素である。
ディープラーニングに基づくビデオ予測は、有望な研究方向として登場した。
論文 参考訳(メタデータ) (2020-04-10T19:58:44Z) - Deep Learning for Content-based Personalized Viewport Prediction of
360-Degree VR Videos [72.08072170033054]
本稿では、位置データとビデオフレームコンテンツを活用して、将来の頭部の動きを予測するためのディープラーニングネットワークを提案する。
このニューラルネットワークに入力されるデータを最適化するために、このモデルのために、データサンプル率、データ削減、長期予測長についても検討する。
論文 参考訳(メタデータ) (2020-03-01T07:31:50Z) - Spatiotemporal Relationship Reasoning for Pedestrian Intent Prediction [57.56466850377598]
視覚データに対する推論は、ロボティクスとビジョンベースのアプリケーションにとって望ましい能力である。
本稿では,歩行者の意図を推論するため,現場の異なる物体間の関係を明らかにするためのグラフ上でのフレームワークを提案する。
歩行者の意図は、通りを横切る、あるいは横断しない将来の行動として定義され、自動運転車にとって非常に重要な情報である。
論文 参考訳(メタデータ) (2020-02-20T18:50:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。