論文の概要: Intersection Prediction from Single 360{\deg} Image via Deep Detection
of Possible Direction of Travel
- arxiv url: http://arxiv.org/abs/2204.04634v1
- Date: Sun, 10 Apr 2022 08:53:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-12 17:41:25.312455
- Title: Intersection Prediction from Single 360{\deg} Image via Deep Detection
of Possible Direction of Travel
- Title(参考訳): 旅行方向の深部検出による単一360{\deg}画像からの断面積予測
- Authors: Naoki Sugimoto, Satoshi Ikehata, Kiyoharu Aizawa
- Abstract要約: 360degビデオにおけるフレーム間の交差を識別する新しい手法を提案する。
交差識別を標準的な二分分類タスクとして定式化する代わりに、旅行の可能な方向の数に基づいて交差点を識別する。
本手法は88%の精度を達成し, 直接的2値分類法よりも有意に優れている。
- 参考スコア(独自算出の注目度): 41.52995462411978
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Movie-Map, an interactive first-person-view map that engages the user in a
simulated walking experience, comprises short 360{\deg} video segments
separated by traffic intersections that are seamlessly connected according to
the viewer's direction of travel. However, in wide urban-scale areas with
numerous intersecting roads, manual intersection segmentation requires
significant human effort. Therefore, automatic identification of intersections
from 360{\deg} videos is an important problem for scaling up Movie-Map. In this
paper, we propose a novel method that identifies an intersection from
individual frames in 360{\deg} videos. Instead of formulating the intersection
identification as a standard binary classification task with a 360{\deg} image
as input, we identify an intersection based on the number of the possible
directions of travel (PDoT) in perspective images projected in eight directions
from a single 360{\deg} image detected by the neural network for handling
various types of intersections. We constructed a large-scale 360{\deg} Image
Intersection Identification (iii360) dataset for training and evaluation where
360{\deg} videos were collected from various areas such as school campus,
downtown, suburb, and china town and demonstrate that our PDoT-based method
achieves 88\% accuracy, which is significantly better than that achieved by the
direct naive binary classification based method. The source codes and a partial
dataset will be shared in the community after the paper is published.
- Abstract(参考訳): movie-mapは、ユーザーをシミュレートした歩行体験で結びつけるインタラクティブなファーストパーソンビューマップであり、360{\deg}ビデオセグメントを、視聴者の移動方向に応じてシームレスに接続される交通交差点で区切る。
しかし、多数の交差する道路がある広い都市部では、手動交差点のセグメンテーションにはかなりの人的努力が必要となる。
したがって、360{\deg}ビデオからの交差点の自動識別は、映画マップのスケールアップにおいて重要な問題である。
本稿では,360{\deg}ビデオにおける個々のフレームとの交差を識別する新しい手法を提案する。
360{\deg}画像の入力として交叉識別を標準バイナリ分類タスクとして定式化する代わりに、様々な種類の交叉を処理するためにニューラルネットワークによって検出された単一の360{\deg}画像から、8方向に投影された視点画像における移動可能な方向数(pdot)に基づいて交叉を識別する。
本研究では,学校キャンパス,ダウンタウン,郊外,チャイナタウンなど各地から360{\deg}ビデオが収集された訓練・評価のための大規模360{\deg}画像交差点識別(iii360)データセットを構築し,pdotに基づく手法が88\%精度を達成できることを実証した。
ソースコードと部分データセットは、論文が公開された後、コミュニティで共有される。
関連論文リスト
- Online Lane Graph Extraction from Onboard Video [133.68032636906133]
オンボードカメラからの映像ストリームを、周囲のレーングラフのオンライン抽出に使用しています。
入力が1つの画像ではなくビデオを使うことは、異なるタイムステップからの情報を組み合わせることのメリットと課題の両方をもたらす。
提案手法の1つのモデルでは、1つを含む任意の数の画像を処理し、正確なレーングラフを生成することができる。
論文 参考訳(メタデータ) (2023-04-03T12:36:39Z) - Saliency-based Multiple Region of Interest Detection from a Single
360{\deg} image [40.02598009484401]
本研究では,視覚的サリエンシを手がかりとして,単一の360度画像から関心領域(RoI)の最適セットを予測する手法を提案する。
提案手法は,入力360deg画像を適切に要約した領域を選択することができることを示す主観評価を行う。
論文 参考訳(メタデータ) (2022-09-08T09:06:13Z) - Satellite Image Based Cross-view Localization for Autonomous Vehicle [59.72040418584396]
本稿では,市販の高精細衛星画像を使用可能な地図として利用することにより,良好な精度でクロスビュー車両のローカライゼーションを実現することができることを示す。
本手法はKITTIとFord Multi-AVの季節データセットを地上ビューとして,Google Mapsを衛星ビューとして検証した。
論文 参考訳(メタデータ) (2022-07-27T13:16:39Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - Drive&Segment: Unsupervised Semantic Segmentation of Urban Scenes via
Cross-modal Distillation [32.33170182669095]
本研究は,自動車が収集した生の非キュレートデータからのみ,手動のアノテーションを使わずに,都市景観における画素単位のセマンティックイメージのセマンティックセマンティックセマンティクスの学習について検討する。
本稿では,同期化LiDARと画像データを利用した意味的イメージセグメンテーションのクロスモーダルな教師なし学習手法を提案する。
論文 参考訳(メタデータ) (2022-03-21T17:35:46Z) - Robust 2D/3D Vehicle Parsing in CVIS [54.825777404511605]
本研究では,協調型車両インフラシステム(CVIS)の一環として,異なるカメラビューの車両を堅牢に検出・認識する新しいアプローチを提案する。
提案方式は任意のカメラビュー向けに設計されており,本質的パラメータや外部的パラメータを仮定しない。
実際に,本手法は2次元検出,インスタンスセグメンテーション,6-DoFのポーズ推定においてSOTA法より優れている。
論文 参考訳(メタデータ) (2021-03-11T03:35:05Z) - Towards Autonomous Driving: a Multi-Modal 360$^{\circ}$ Perception
Proposal [87.11988786121447]
本稿では,自動運転車の3次元物体検出と追跡のためのフレームワークを提案する。
このソリューションは、新しいセンサ融合構成に基づいて、正確で信頼性の高い道路環境検出を提供する。
自動運転車に搭載されたシステムの様々なテストは、提案された知覚スタックの適合性を評価することに成功している。
論文 参考訳(メタデータ) (2020-08-21T20:36:21Z) - Predicting Semantic Map Representations from Images using Pyramid
Occupancy Networks [27.86228863466213]
単一エンドツーエンドのディープラーニングアーキテクチャを用いて,単分子画像から直接マップを推定する,シンプルで統一的なアプローチを提案する。
提案手法の有効性を,NuScenesとArgoverseデータセット上のいくつかの挑戦的ベースラインに対して評価することで実証する。
論文 参考訳(メタデータ) (2020-03-30T12:39:44Z) - A Fixation-based 360{\deg} Benchmark Dataset for Salient Object
Detection [21.314578493964333]
パノラマコンテンツ中の固定予測(FP)は、仮想現実(VR)アプリケーションの普及傾向とともに広く研究されている。
静止物体検出(SOD)は、実際のシーンを表すデータセットが欠如しているため、360度画像ではめったに探索されていない。
論文 参考訳(メタデータ) (2020-01-22T11:16:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。