論文の概要: DeepCompass: AI-driven Location-Orientation Synchronization for
Navigating Platforms
- arxiv url: http://arxiv.org/abs/2311.12805v1
- Date: Fri, 15 Sep 2023 07:45:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-15 15:46:06.275968
- Title: DeepCompass: AI-driven Location-Orientation Synchronization for
Navigating Platforms
- Title(参考訳): DeepCompass: ナビゲーションプラットフォームのためのAI駆動のロケーション指向同期
- Authors: Jihun Lee, SP Choi, Bumsoo Kang, Hyekyoung Seok, Hyoungseok Ahn,
Sanghee Jung
- Abstract要約: 本稿では,ストリートビューとユーザビューのギャップを埋めることで,ユーザの向きを識別するDeepを提案する。
各種運転条件におけるDeepの評価を行った。
これは、既存のセンサーベースの方向検出手法のアドオンとしてのDeepの可能性を強調している。
- 参考スコア(独自算出の注目度): 2.3091928972413576
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In current navigating platforms, the user's orientation is typically
estimated based on the difference between two consecutive locations. In other
words, the orientation cannot be identified until the second location is taken.
This asynchronous location-orientation identification often leads to our
real-life question: Why does my navigator tell the wrong direction of my car at
the beginning? We propose DeepCompass to identify the user's orientation by
bridging the gap between the street-view and the user-view images. First, we
explore suitable model architectures and design corresponding input
configuration. Second, we demonstrate artificial transformation techniques
(e.g., style transfer and road segmentation) to minimize the disparity between
the street-view and the user's real-time experience. We evaluate DeepCompass
with extensive evaluation in various driving conditions. DeepCompass does not
require additional hardware and is also not susceptible to external
interference, in contrast to magnetometer-based navigator. This highlights the
potential of DeepCompass as an add-on to existing sensor-based orientation
detection methods.
- Abstract(参考訳): 現在のナビゲーションプラットフォームでは、ユーザの方向は2つの連続した位置の違いに基づいて推定される。
言い換えれば、2番目の位置を取るまで方向を特定できない。
なぜ私のナビゲータは、最初に車の方向を間違えたのか?
本稿では,ストリートビューとユーザビューイメージのギャップを埋めることで,ユーザの向きを識別するDeepCompassを提案する。
まず、適切なモデルアーキテクチャと対応する入力構成の設計について検討する。
第2に,ストリートビューとユーザのリアルタイムエクスペリエンスの相違を最小限に抑えるために,人工的な変換手法(スタイル転送や道路分割など)を実演する。
各種運転条件におけるDeepCompassの評価を行った。
DeepCompassは追加のハードウェアを必要とせず、磁気センサベースのナビゲータとは対照的に外部干渉の影響を受けない。
これは、既存のセンサーベースの方向検出方法のアドオンとしてdeepcompassの可能性を強調する。
関連論文リスト
- MapLocNet: Coarse-to-Fine Feature Registration for Visual Re-Localization in Navigation Maps [8.373285397029884]
伝統的なローカライゼーションアプローチは、正確に注釈付けされたランドマークからなる高定義(HD)マップに依存している。
本稿では,画像登録にインスパイアされたトランスフォーマーを用いたニューラルリローカライズ手法を提案する。
提案手法は, nuScenes と Argoverse の両方のデータセット上で, 現在最先端の OrienterNet を著しく上回っている。
論文 参考訳(メタデータ) (2024-07-11T14:51:18Z) - Detect and Approach: Close-Range Navigation Support for People with
Blindness and Low Vision [13.478275180547925]
視力と視力の低い人(pBLV)は、最終目的地の特定や、不慣れな環境で特定の対象を狙う際に重大な課題を経験する。
本研究では,ユーザの関心対象物へのアプローチを,不慣れな環境下で効果的かつ効率的に行うためのリアルタイムガイダンスを提供する,新しいウェアラブルナビゲーションソリューションを開発した。
論文 参考訳(メタデータ) (2022-08-17T18:38:20Z) - JPerceiver: Joint Perception Network for Depth, Pose and Layout
Estimation in Driving Scenes [75.20435924081585]
JPerceiverは、モノクロビデオシーケンスからスケール認識深度とVOとBEVレイアウトを同時に推定することができる。
クロスビュー幾何変換(CGT)を利用して、絶対スケールを道路レイアウトから奥行きとVOに伝播させる。
Argoverse、Nuscenes、KITTIの実験は、上記の3つのタスクの全てにおいて、既存のメソッドよりもJPerceiverの方が優れていることを示している。
論文 参考訳(メタデータ) (2022-07-16T10:33:59Z) - Explore before Moving: A Feasible Path Estimation and Memory Recalling
Framework for Embodied Navigation [117.26891277593205]
ナビゲーションに焦点をあて,経験や常識に欠ける既存のナビゲーションアルゴリズムの問題を解決する。
移動前に2回思考する能力に触発されて、不慣れな場面で目標を追求する実現可能な経路を考案し、パス推定とメモリリコールフレームワークと呼ばれる経路計画手法を提案する。
EmbodiedQAナビゲーションタスクにおけるPEMRの強力な実験結果を示す。
論文 参考訳(メタデータ) (2021-10-16T13:30:55Z) - Pushing it out of the Way: Interactive Visual Navigation [62.296686176988125]
エージェントが目標に合わせてより効率的にナビゲートするために環境を変更することを学ぶインタラクティブナビゲーションの問題を研究します。
エージェントの行動によって引き起こされる環境の変化を明示的に予測するために,neural interaction engine(nie)を導入する。
計画中の変更をモデル化することで、エージェントがナビゲーション能力を大幅に改善できることが分かりました。
論文 参考訳(メタデータ) (2021-04-28T22:46:41Z) - IDOL: Inertial Deep Orientation-Estimation and Localization [18.118289074111946]
多くのスマートフォンアプリケーションは、運動を感知するために慣性測定装置(IMU)を使用しているが、歩行者の局所化にこれらのセンサーを使用することは困難である。
近年,慣性航法の可能性が高まっている。
本稿では,まず端末の向きを推定し,次にデバイスの位置を推定するコモディティスマートフォンを用いた2段階のデータ駆動パイプラインを提案する。
論文 参考訳(メタデータ) (2021-02-08T06:41:47Z) - Memory-Augmented Reinforcement Learning for Image-Goal Navigation [67.3963444878746]
本論文では,クロスエピソードメモリを活用したナビゲーション学習法を提案する。
オーバーフィッティングを避けるため、トレーニング中にRGB入力にデータ拡張を適用することを提案する。
この競合性能はRGB入力のみから得られるが,位置や深度などのセンサは利用できない。
論文 参考訳(メタデータ) (2021-01-13T16:30:20Z) - Assisted Perception: Optimizing Observations to Communicate State [112.40598205054994]
我々は、ロボット遠隔操作や視覚障害のあるナビゲーションといったタスクにおいて、ユーザが世界の状態を見積もるのを支援することを目的としている。
ユーザによって処理された場合、より正確な内部状態推定につながる新しい観測結果を合成する。
論文 参考訳(メタデータ) (2020-08-06T19:08:05Z) - An Efficient Indoor Navigation Technique To Find Optimal Route For
Blinds Using QR Codes [0.0]
ブラインドナビゲーション(Blind navigation)は、視覚障害者がアンドロイドスマートフォンを室内でのナビゲーションに簡単に使えるようにするためのアクセシビリティアプリケーションである。
アンドロイド・スマートフォン向けに開発されており、ナビゲーションのためのハードウェアは一切必要としない。
QRコードは、現在の位置検出とナビゲーションの入力として機能する特定の距離の後、フロアセクションに配置される。
論文 参考訳(メタデータ) (2020-05-29T12:19:25Z) - Where am I looking at? Joint Location and Orientation Estimation by
Cross-View Matching [95.64702426906466]
ジオタグ付き空中画像の大規模データベースを考えると、クロスビューなジオローカライゼーションは問題となる。
地上画像と空中画像の向きを知ることは、これらの2つのビュー間のあいまいさを著しく軽減することができる。
局所化時の横方向のアライメントを推定する動的類似マッチングネットワークを設計する。
論文 参考訳(メタデータ) (2020-05-08T05:21:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。