論文の概要: Amirkabir campus dataset: Real-world challenges and scenarios of Visual
Inertial Odometry (VIO) for visually impaired people
- arxiv url: http://arxiv.org/abs/2401.03604v1
- Date: Sun, 7 Jan 2024 23:13:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-09 18:02:14.401801
- Title: Amirkabir campus dataset: Real-world challenges and scenarios of Visual
Inertial Odometry (VIO) for visually impaired people
- Title(参考訳): Amirkabirキャンパスデータセット:視覚障害者のための視覚慣性オドメトリー(VIO)の現実的課題とシナリオ
- Authors: Ali Samadzadeh, Mohammad Hassan Mojab, Heydar Soudani, Seyed
Hesamoddin Mireshghollah, Ahmad Nickabadi
- Abstract要約: 上記の問題に対処し,ナビゲーションシステムを改善するために,Amirkabirキャンパスデータセット(AUT-VI)を導入する。
AUT-VIは17の異なる場所で126の異なる配列を持つ、新しくて超混成的なデータセットである。
進行中の開発作業のサポートとして、データキャプチャ用のAndroidアプリケーションを一般向けにリリースしました。
- 参考スコア(独自算出の注目度): 3.7998592843098336
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Visual Inertial Odometry (VIO) algorithms estimate the accurate camera
trajectory by using camera and Inertial Measurement Unit (IMU) sensors. The
applications of VIO span a diverse range, including augmented reality and
indoor navigation. VIO algorithms hold the potential to facilitate navigation
for visually impaired individuals in both indoor and outdoor settings.
Nevertheless, state-of-the-art VIO algorithms encounter substantial challenges
in dynamic environments, particularly in densely populated corridors. Existing
VIO datasets, e.g., ADVIO, typically fail to effectively exploit these
challenges. In this paper, we introduce the Amirkabir campus dataset (AUT-VI)
to address the mentioned problem and improve the navigation systems. AUT-VI is
a novel and super-challenging dataset with 126 diverse sequences in 17
different locations. This dataset contains dynamic objects, challenging
loop-closure/map-reuse, different lighting conditions, reflections, and sudden
camera movements to cover all extreme navigation scenarios. Moreover, in
support of ongoing development efforts, we have released the Android
application for data capture to the public. This allows fellow researchers to
easily capture their customized VIO dataset variations. In addition, we
evaluate state-of-the-art Visual Inertial Odometry (VIO) and Visual Odometry
(VO) methods on our dataset, emphasizing the essential need for this
challenging dataset.
- Abstract(参考訳): 視覚慣性オドメトリー(VIO)アルゴリズムは、カメラと慣性計測ユニット(IMU)センサーを用いて正確なカメラ軌道を推定する。
VIOの応用範囲は拡張現実や屋内ナビゲーションなど多岐にわたる。
VIOアルゴリズムは、屋内と屋外の両方で視覚障害者のナビゲーションを容易にする可能性を秘めている。
それにもかかわらず、最先端のvioアルゴリズムは動的環境、特に密集した回廊においてかなりの困難に直面する。
既存のVIOデータセット、例えばADVIOは、これらの課題を効果的に活用できない。
本稿では,上記の問題に対処し,ナビゲーションシステムを改善するために,amirkabir campus dataset (aut-vi)を提案する。
AUT-VIは17の異なる場所で126の異なる配列を持つ、新しくて超混成的なデータセットである。
このデータセットには、動的オブジェクト、ループクロージャ/マップリユースへの挑戦、異なる照明条件、反射、そして極端なナビゲーションシナリオをカバーするために突然のカメラの動きが含まれる。
さらに、現在進行中の開発努力のサポートとして、データキャプチャ用のandroidアプリケーションをリリースしました。
これにより、同僚の研究者たちは、カスタマイズされたVIOデータセットのバリエーションを簡単にキャプチャできる。
さらに、この困難なデータセットの必要性を強調し、データ集合における最先端の視覚慣性オドメトリ(vio)と視覚オドメトリ(vo)メソッドを評価した。
関連論文リスト
- DOZE: A Dataset for Open-Vocabulary Zero-Shot Object Navigation in Dynamic Environments [28.23284296418962]
Zero-Shot Object Navigation (ZSON)は、エージェントが不慣れな環境で見えないオブジェクトを自律的に見つけ、アプローチすることを要求する。
ZSONアルゴリズムを開発するための既存のデータセットには、動的な障害、オブジェクトの多様性、シーンテキストが考慮されていない。
動的環境(DOZE)におけるオープンボキャブラリゼロショットオブジェクトナビゲーションのためのデータセットを提案する。
DOZEは18k以上のタスクを持つ10の高忠実な3Dシーンで構成されており、複雑な動的現実世界のシナリオを模倣することを目的としている。
論文 参考訳(メタデータ) (2024-02-29T10:03:57Z) - RD-VIO: Robust Visual-Inertial Odometry for Mobile Augmented Reality in
Dynamic Environments [55.864869961717424]
視覚的・視覚的慣性オドメトリーシステムでは、動的シーンや純粋な回転の問題に対処することが通常困難である。
我々はこれらの問題に対処するためにRD-VIOと呼ばれる新しい視覚-慣性オドメトリーシステム(VIO)を設計する。
論文 参考訳(メタデータ) (2023-10-23T16:30:39Z) - Improving Underwater Visual Tracking With a Large Scale Dataset and
Image Enhancement [70.2429155741593]
本稿では,水中ビジュアルオブジェクト追跡(UVOT)のための新しいデータセットと汎用トラッカ拡張手法を提案する。
水中環境は、一様でない照明条件、視界の低さ、鋭さの欠如、コントラストの低さ、カモフラージュ、懸濁粒子からの反射を示す。
本研究では,追尾品質の向上に特化して設計された水中画像強調アルゴリズムを提案する。
この手法により、最先端(SOTA)ビジュアルトラッカーの最大5.0%のAUCの性能が向上した。
論文 参考訳(メタデータ) (2023-08-30T07:41:26Z) - AVOIDDS: Aircraft Vision-based Intruder Detection Dataset and Simulator [37.579437595742995]
AVOIDDSは、視覚に基づく航空機の検知・回避問題に対する現実的な物体検出ベンチマークである。
各種照明条件を有する侵入機の光実写画像72,000枚からなるラベル付きデータセットを提供する。
また、このデータセットのスライス上でトレーニングされたモデルを評価し、環境条件の変化に対する性能の変化を特定するインタフェースも提供する。
論文 参考訳(メタデータ) (2023-06-19T23:58:07Z) - FLSea: Underwater Visual-Inertial and Stereo-Vision Forward-Looking
Datasets [8.830479021890575]
我々は,地中海と紅海の前方視像と視界慣性画像集合を収集した。
これらのデータセットは、障害物回避、視覚計測、3Dトラッキング、3Dローカライゼーションとマッピング(SLAM)、深さ推定など、いくつかの水中アプリケーションの開発に欠かせない。
論文 参考訳(メタデータ) (2023-02-24T17:39:53Z) - EMA-VIO: Deep Visual-Inertial Odometry with External Memory Attention [5.144653418944836]
視覚慣性オドメトリー(VIO)アルゴリズムは、カメラと慣性センサーからの情報を利用して位置と翻訳を推定する。
最近のディープラーニングベースのVIOモデルは、データ駆動方式でポーズ情報を提供するため、注目を集めている。
状態推定のための視覚的特徴と慣性的特徴を効果的かつ効率的に組み合わせた,外部記憶に配慮した新しい学習ベースのVIOフレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-18T07:05:36Z) - VPAIR -- Aerial Visual Place Recognition and Localization in Large-scale
Outdoor Environments [49.82314641876602]
VPAIRという新しいデータセットを提示します。
データセットは地上300メートル以上の高度で飛行する軽航空機に記録されている。
このデータセットは、様々なタイプの挑戦的な風景を、100km以上にわたってカバーしている。
論文 参考訳(メタデータ) (2022-05-23T18:50:08Z) - Towards Scale Consistent Monocular Visual Odometry by Learning from the
Virtual World [83.36195426897768]
仮想データから絶対スケールを取得するための新しいフレームワークであるVRVOを提案する。
まず、モノクロ実画像とステレオ仮想データの両方を用いて、スケール対応の異種ネットワークをトレーニングする。
結果として生じるスケール一貫性の相違は、直接VOシステムと統合される。
論文 参考訳(メタデータ) (2022-03-11T01:51:54Z) - A Flow Base Bi-path Network for Cross-scene Video Crowd Understanding in
Aerial View [93.23947591795897]
本稿では,これらの課題に対処し,ドローンから収集した視覚的データから参加者を自動的に理解する。
クロスシーンテストで発生する背景雑音を軽減するために, 二重ストリーム群カウントモデルを提案する。
極暗環境下での集団密度推定問題に対処するために,ゲームグランドセフトオートV(GTAV)によって生成された合成データを導入する。
論文 参考訳(メタデータ) (2020-09-29T01:48:24Z) - Deep Learning based Pedestrian Inertial Navigation: Methods, Dataset and
On-Device Inference [49.88536971774444]
慣性測定ユニット(IMU)は小型で安価でエネルギー効率が良く、スマートデバイスや移動ロボットに広く使われている。
正確で信頼性の高い歩行者ナビゲーションをサポートするために慣性データをエクスプロイトすることは、新しいインターネット・オブ・シングス・アプリケーションやサービスにとって重要なコンポーネントである。
我々は、深層学習に基づく慣性ナビゲーション研究のための最初の公開データセットであるOxIOD(OxIOD)を提示、リリースする。
論文 参考訳(メタデータ) (2020-01-13T04:41:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。