論文の概要: Building Movie Map -- A Tool for Exploring Areas in a City -- and its
Evaluation
- arxiv url: http://arxiv.org/abs/2011.08525v1
- Date: Tue, 17 Nov 2020 09:24:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-24 17:22:19.091199
- Title: Building Movie Map -- A Tool for Exploring Areas in a City -- and its
Evaluation
- Title(参考訳): 映画地図の作成 -都市の地域を探索するツールとその評価-
- Authors: Naoki Sugimoto, Yoshihito Ebine, Kiyoharu Aizawa
- Abstract要約: 都市を探索するインタフェースを備えた新しい映画地図システムを提案する。
システムは、取得、分析、管理、相互作用の4つの段階から構成される。
我々は,ユーザが自由に移動し,探索してランドマークを探すシナリオにおいて,システムとGSVを比較した。
- 参考スコア(独自算出の注目度): 38.30715206138599
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a new Movie Map system, with an interface for exploring cities.
The system consists of four stages; acquisition, analysis, management, and
interaction. In the acquisition stage, omnidirectional videos are taken along
streets in target areas. Frames of the video are localized on the map,
intersections are detected, and videos are segmented. Turning views at
intersections are subsequently generated. By connecting the video segments
following the specified movement in an area, we can view the streets better.
The interface allows for easy exploration of a target area, and it can show
virtual billboards of stores in the view. We conducted user studies to compare
our system to the GSV in a scenario where users could freely move and explore
to find a landmark. The experiment showed that our system had a better user
experience than GSV.
- Abstract(参考訳): 都市を探索するためのインタフェースを備えた新しい映画地図システムを提案する。
システムは、獲得、分析、管理、および相互作用の4段階からなる。
取得段階では、ターゲットエリアの道路に沿って全方向のビデオが撮影される。
ビデオのフレームは地図上にローカライズされ、交差点が検出され、動画がセグメンテーションされる。
その後、交差点での旋回ビューが生成される。
エリア内の特定の動きに従ってビデオセグメントを接続することで、街路をよりよく見ることができる。
インターフェースにより、ターゲットエリアの探索が容易になり、ビュー内の店舗の仮想看板を表示することができる。
我々は,ユーザが自由に移動・探索してランドマークを見つけることができるシナリオにおいて,本システムとgsvを比較した。
実験の結果,本システムはgsvよりも優れたユーザエクスペリエンスを示した。
関連論文リスト
- DEAR: Depth-Enhanced Action Recognition [9.933324297265495]
本研究では,3次元特徴と深度マップをRGB特徴と組み合わせ,行動認識の精度を高める新しいアプローチを提案する。
提案手法では,RGB機能エンコーダとは別個のブランチを通じて推定深度マップを処理し,そのシーンや動作を包括的に理解するために特徴を融合させる。
論文 参考訳(メタデータ) (2024-08-28T10:08:38Z) - SideSeeing: A multimodal dataset and collection of tools for sidewalk assessment [0.0]
構築された環境を評価するためのツールとデータセットを提供する新しいイニシアティブであるSideSeeingを紹介する。
本稿では,胸部装着型モバイルデバイスから撮影した同期映像とセンサデータを統合する新しいデータセットを提案する。
データセットは、9つの病院の周囲12kmをカバーする3時間のコンテンツを含み、325,000のビデオフレームと対応するセンサーデータを含んでいる。
論文 参考訳(メタデータ) (2024-07-09T00:04:54Z) - Visualizing Routes with AI-Discovered Street-View Patterns [4.153397474276339]
本稿では,視覚的特徴の定量化にセマンティック潜在ベクトルを用いる手法を提案する。
街路ビュー画像の集合間の画像類似度を計算し,空間像パターンの探索を行う。
インタラクティブな可視化プロトタイプであるVivaRoutesを紹介し、これらのパターンで視覚化がどのように活用され、ユーザーが複数のルートを効果的かつインタラクティブに探索するのに役立つかを示す。
論文 参考訳(メタデータ) (2024-03-30T17:32:26Z) - VRAG: Region Attention Graphs for Content-Based Video Retrieval [85.54923500208041]
Region Attention Graph Networks (VRAG) は最先端のビデオレベルの手法を改善している。
VRAGは、地域レベルの特徴を通して、より細かい粒度のビデオを表現し、地域レベルの関係を通して、ビデオ時間ダイナミクスをエンコードする。
本研究では,映像のセグメント化や映像検索にショット埋め込みを用いることで,映像レベルとフレームレベルの性能差を低減できることを示す。
論文 参考訳(メタデータ) (2022-05-18T16:50:45Z) - Learning Visual Affordance Grounding from Demonstration Videos [76.46484684007706]
Affordance Groundingは、画像/ビデオから人とオブジェクト間のすべての可能な相互作用領域を分割することを目的としている。
実演ビデオにおける手の位置と動作から得られる手掛かりを活用できる,手支援型住宅地すべりネットワーク(HAGNet)を提案する。
論文 参考訳(メタデータ) (2021-08-12T11:45:38Z) - VS-Net: Voting with Segmentation for Visual Localization [72.8165619061249]
本稿では,クエリ画像と3Dマップ間の2次元から3次元の対応を学習可能なシーン固有のランドマークで構築する,新しい視覚的ローカライゼーションフレームワークを提案する。
提案したVS-Netは、複数の公開ベンチマークで広範囲にテストされており、最先端のビジュアルローカライゼーション手法より優れている。
論文 参考訳(メタデータ) (2021-05-23T08:44:11Z) - Self-supervised Video Representation Learning by Uncovering
Spatio-temporal Statistics [74.6968179473212]
本稿では,自己指導型学習問題に対処する新しい前提課題を提案する。
最大運動の空間的位置や支配的な方向など,分割的・時間的統計的な要約を連続して計算する。
ビデオフレームを入力として与えられた統計的要約を得るために、ニューラルネットワークを構築して訓練する。
論文 参考訳(メタデータ) (2020-08-31T08:31:56Z) - Video Panoptic Segmentation [117.08520543864054]
我々は,ビデオパノプティクスセグメンテーションと呼ばれる,このタスクの新たな拡張手法を提案し,検討する。
この新しいタスクの研究を活性化するために,2種類のビデオパノプティクスデータセットを提示する。
本稿では,ビデオフレーム内のオブジェクトクラス,バウンディングボックス,マスク,インスタンスID追跡,セマンティックセマンティックセマンティックセマンティックセマンティクスを共同で予測する新しいビデオパノプティックセマンティクスネットワーク(VPSNet)を提案する。
論文 参考訳(メタデータ) (2020-06-19T19:35:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。