論文の概要: NYU-VPR: Long-Term Visual Place Recognition Benchmark with View
Direction and Data Anonymization Influences
- arxiv url: http://arxiv.org/abs/2110.09004v1
- Date: Mon, 18 Oct 2021 03:56:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-20 06:08:35.947641
- Title: NYU-VPR: Long-Term Visual Place Recognition Benchmark with View
Direction and Data Anonymization Influences
- Title(参考訳): NYU-VPR:ビュー方向とデータ匿名化の影響を考慮した長期視覚的位置認識ベンチマーク
- Authors: Diwei Sheng, Yuxiang Chai, Xinru Li, Chen Feng, Jianzhe Lin, Claudio
Silva, John-Ross Rizzo
- Abstract要約: 2016年中、ニューヨーク大学キャンパス近くの2km付近で撮影された20万枚以上の画像のデータセットを提示する。
データ匿名化の影響はほとんど無視できる一方で、現在のVPR手法ではサイドビューの方がはるかに困難であることを示す。
- 参考スコア(独自算出の注目度): 5.94860356161563
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Visual place recognition (VPR) is critical in not only localization and
mapping for autonomous driving vehicles, but also assistive navigation for the
visually impaired population. To enable a long-term VPR system on a large
scale, several challenges need to be addressed. First, different applications
could require different image view directions, such as front views for
self-driving cars while side views for the low vision people. Second, VPR in
metropolitan scenes can often cause privacy concerns due to the imaging of
pedestrian and vehicle identity information, calling for the need for data
anonymization before VPR queries and database construction. Both factors could
lead to VPR performance variations that are not well understood yet. To study
their influences, we present the NYU-VPR dataset that contains more than
200,000 images over a 2km by 2km area near the New York University campus,
taken within the whole year of 2016. We present benchmark results on several
popular VPR algorithms showing that side views are significantly more
challenging for current VPR methods while the influence of data anonymization
is almost negligible, together with our hypothetical explanations and in-depth
analysis.
- Abstract(参考訳): 視覚的位置認識(VPR)は、自律走行車両の局所化とマッピングだけでなく、視覚障害者のための補助ナビゲーションにも重要である。
大規模な長期VPRシステムを実現するには、いくつかの課題に取り組む必要がある。
まず、異なるアプリケーションでは、自動運転車のフロントビューや低視野の人々のためのサイドビューなど、異なるイメージビューの方向が必要になる可能性がある。
第二に、大都市圏のVPRは、VPRクエリやデータベース構築の前にデータ匿名化の必要性を訴える歩行者や車両の識別情報のイメージングによって、しばしばプライバシー上の懸念を引き起こす。
どちらの要因も、まだよく理解されていないVPRパフォーマンスのバリエーションにつながる可能性がある。
これらの影響を研究するため、ニューヨーク大学キャンパス近くの2km×2kmの領域に20万枚以上の画像を含むNYU-VPRデータセットを2016年中に公開した。
我々は,いくつかの一般的なvprアルゴリズムにおいて,データ匿名化の影響がほぼ無視できる一方で,サイドビューが現在のvpr法よりも著しく困難であることを示すベンチマーク結果を示す。
関連論文リスト
- SVIA: A Street View Image Anonymization Framework for Self-Driving Applications [18.30159119462861]
自動運転アプリケーションのためのストリートビュー画像匿名化フレームワークを提案する。
SVIAフレームワークは、セマンティックセグメンタ、プライバシに敏感な領域の代替を生成するインペイント、修正された領域をシームレスに縫合するハーモナイザの3つの統合コンポーネントで構成されている。
既存の方法と比較して、SVIAは画像生成の品質とプライバシ保護のトレードオフをはるかに改善している。
論文 参考訳(メタデータ) (2025-01-16T09:05:46Z) - NYC-Indoor-VPR: A Long-Term Indoor Visual Place Recognition Dataset with Semi-Automatic Annotation [7.037667953803237]
本稿では、ニューヨーク市内の13の異なる混雑したシーンから収集された36,000枚以上の画像のユニークで豊富なコレクションであるNYC-Indoor-VPRデータセットを紹介する。
VPRのための基礎的真理を確立するために,各画像の位置情報を計算する半自動アノテーション手法を提案する。
提案手法は,ビデオのペアを入力とし,一致した画像のペアと推定された相対位置を出力する。
論文 参考訳(メタデータ) (2024-03-31T00:20:53Z) - DriveLM: Driving with Graph Visual Question Answering [57.51930417790141]
本研究では,Webスケールデータに基づいて学習した視覚言語モデル(VLM)を,エンド・ツー・エンドの運転システムに統合する方法について検討する。
グラフVQAとエンドツーエンド駆動を併用するVLMベースラインアプローチ(DriveLM-Agent)を提案する。
論文 参考訳(メタデータ) (2023-12-21T18:59:12Z) - NPR: Nocturnal Place Recognition in Streets [15.778129994700496]
我々は、視覚的位置認識(VPR)を分割し、夜間位置認識(NPR)を克服する新しいパイプラインを提案する。
具体的には、最初にストリートレベルの昼夜データセット、NightStreetを構築し、未ペア画像から画像への翻訳モデルのトレーニングに使用しました。
そして、このモデルを使って既存の大規模VPRデータセットを処理し、VPR-Nightデータセットを生成し、それらを2つの人気のあるVPRパイプラインと組み合わせる方法について実証した。
論文 参考訳(メタデータ) (2023-04-01T09:43:58Z) - Visual Place Recognition: A Tutorial [40.576083932383895]
本論文は視覚的位置認識に関する最初のチュートリアル論文である。
これは、VPR問題の定式化、汎用的なアルゴリズムパイプライン、VPRアプローチの評価方法などのトピックをカバーしている。
Pythonの実践的なコード例は、VPRの実装と評価について、将来的な実践者や研究者に示している。
論文 参考訳(メタデータ) (2023-03-06T16:52:11Z) - Learning Self-Regularized Adversarial Views for Self-Supervised Vision
Transformers [105.89564687747134]
本稿では,自己監督型視覚変換器のビューを学習するための自己正規化自動拡張手法を提案する。
まず、ビューとネットワークパラメータを同時に学習することで、AutoViewの検索コストをほぼゼロに削減する。
また、自己教師型学習のための強化政策探索空間も提示する。
論文 参考訳(メタデータ) (2022-10-16T06:20:44Z) - Video Graph Transformer for Video Question Answering [182.14696075946742]
本稿では,ビデオクエリアンサー(VideoQA)のためのビデオグラフ変換器(VGT)モデルを提案する。
事前学習のないシナリオでは,VGTは先行技術よりも動的関係推論に挑戦するビデオQAタスクにおいて,はるかに優れたパフォーマンスが得られることを示す。
論文 参考訳(メタデータ) (2022-07-12T06:51:32Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - V2VNet: Vehicle-to-Vehicle Communication for Joint Perception and
Prediction [74.42961817119283]
車両間通信(V2V)を用いて、自動運転車の知覚と運動予測性能を向上させる。
複数の車両から受信した情報をインテリジェントに集約することで、異なる視点から同じシーンを観察することができる。
論文 参考訳(メタデータ) (2020-08-17T17:58:26Z) - VPR-Bench: An Open-Source Visual Place Recognition Evaluation Framework
with Quantifiable Viewpoint and Appearance Change [25.853640977526705]
VPRの研究は、カメラハードウェアの改善とディープラーニングベースの技術の可能性により、過去10年間で急速に成長してきた。
この成長は、特に性能評価に関する分野における断片化と標準化の欠如につながった。
本稿では,VPR技術の性能評価を行うオープンソースフレームワーク「VPR-Bench」を通じて,これらのギャップに対処する。
論文 参考訳(メタデータ) (2020-05-17T00:27:53Z) - Parsing-based View-aware Embedding Network for Vehicle Re-Identification [138.11983486734576]
本稿では,車載ReIDのビューアウェア機能アライメントと拡張を実現するために,解析に基づくPVEN(View-Aware Embedding Network)を提案する。
3つのデータセットで行った実験により、我々のモデルは最先端の手法よりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2020-04-10T13:06:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。