論文の概要: GuideMe: A Mobile Application based on Global Positioning System and
Object Recognition Towards a Smart Tourist Guide
- arxiv url: http://arxiv.org/abs/2105.13426v1
- Date: Thu, 27 May 2021 19:58:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-01 01:22:20.082723
- Title: GuideMe: A Mobile Application based on Global Positioning System and
Object Recognition Towards a Smart Tourist Guide
- Title(参考訳): GuideMe:グローバル位置決めシステムに基づくモバイルアプリケーションとスマートツーリストガイドに向けたオブジェクト認識
- Authors: Wadii Boulila, Anmar Abuhamdah, Maha Driss, Slim Kammoun, Jawad Ahmad
- Abstract要約: 本稿では,ユーザが所定の聖地に対して,簡単かつ直感的に適切な道を見つけるのに役立つモバイルアプリケーションを提案する。
この目的を達成するために,(1)手動探索,(2)神聖な場所とそれに対応する道順を特定するGPS位置,(3)来訪者が撮影した画像を分析して神聖な場所を決定する深層学習(DL)に基づく方法の3つの選択肢が開発されている。
- 参考スコア(独自算出の注目度): 0.26249027950824505
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Finding information about tourist places to visit is a challenging problem
that people face while visiting different countries. This problem is
accentuated when people are coming from different countries, speak different
languages, and are from all segments of society. In this context, visitors and
pilgrims face important problems to find the appropriate doaas when visiting
holy places. In this paper, we propose a mobile application that helps the user
find the appropriate doaas for a given holy place in an easy and intuitive
manner. Three different options are developed to achieve this goal: 1) manual
search, 2) GPS location to identify the holy places and therefore their
corresponding doaas, and 3) deep learning (DL) based method to determine the
holy place by analyzing an image taken by the visitor. Experiments show good
performance of the proposed mobile application in providing the appropriate
doaas for visited holy places.
- Abstract(参考訳): 訪問する観光地に関する情報を見つけることは、異なる国を訪れている人々が直面する困難な問題である。
この問題は、人々が異なる国から来て、異なる言語を話し、社会のあらゆる部分から来ているときに強調される。
この文脈では、参詣者や巡礼者は、聖地を訪れる際に適切な道を見つけるために重要な問題に直面している。
本稿では,ユーザが与えられた聖地に対して,簡単かつ直感的に適切な道を見つけるためのモバイルアプリケーションを提案する。
この目的を達成するために,(1)手動探索,(2)神聖な場所とそれに対応する道順を特定するGPS位置,(3)来訪者が撮影した画像を分析して神聖な場所を決定する深層学習(DL)に基づく方法の3つの選択肢が開発されている。
実験は、訪問した聖地に対して適切な doaa を提供することで、提案するモバイルアプリケーションの優れた性能を示す。
関連論文リスト
- G3: An Effective and Adaptive Framework for Worldwide Geolocalization Using Large Multi-Modality Models [40.69217368870192]
我々は、レトリーバル拡張世代(RAG)に基づく世界規模の地理的ローカライゼーションのための新しい枠組みを提案する。
G3は、ジオアライメント、ジオディバーシフィケーション、ジオビジュアライゼーションの3つのステップから構成される。
2つの確立されたデータセットの実験は、他の最先端手法と比較してG3の優位性を検証する。
論文 参考訳(メタデータ) (2024-05-23T15:37:06Z) - Location-Aware Visual Question Generation with Lightweight Models [21.278164764804536]
この研究は、位置認識型視覚質問生成(LocaVQG)という新しいタスクを導入している。
我々は、周囲の画像とGPS座標を用いて、そのような位置認識情報を表現している。
我々はLocaVQGタスクに対処し、携帯電話などのエッジデバイスに適合する軽量モデルを学ぶ。
論文 参考訳(メタデータ) (2023-10-23T17:33:31Z) - G^3: Geolocation via Guidebook Grounding [92.46774241823562]
本研究では,人間が位置情報に用いている視覚的特徴を記述した人書きガイドブックから,明示的な知識について検討する。
多様な場所からのストリートビュー画像のデータセットを用いたガイドブックグラウンディングによるジオロケーションのタスクを提案する。
提案手法は,Top-1の精度が5%以上向上し,最先端の画像のみの位置決め法よりも大幅に向上する。
論文 参考訳(メタデータ) (2022-11-28T16:34:40Z) - Find a Way Forward: a Language-Guided Semantic Map Navigator [53.69229615952205]
本稿では,新たな視点で言語誘導ナビゲーションの問題に対処する。
ロボットが自然言語の指示を実行し、地図観測に基づいて目標位置へ移動できるようにする。
提案手法は特に長距離ナビゲーションの場合において顕著な性能向上をもたらす。
論文 参考訳(メタデータ) (2022-03-07T07:40:33Z) - ViKiNG: Vision-Based Kilometer-Scale Navigation with Geographic Hints [94.60414567852536]
長距離航法には、計画と局所的な移動可能性の推論の両方が必要である。
学習と計画を統合する学習に基づくアプローチを提案する。
ViKiNGは、画像ベースの学習コントローラを利用できる。
論文 参考訳(メタデータ) (2022-02-23T02:14:23Z) - SOON: Scenario Oriented Object Navigation with Graph-based Exploration [102.74649829684617]
人間のように3Dエンボディ環境のどこからでも言語ガイドされたターゲットに向かって移動する能力は、インテリジェントロボットの「聖杯」目標の1つです。
ほとんどのビジュアルナビゲーションベンチマークは、ステップバイステップの詳細な命令セットに導かれ、固定された出発点から目標に向かって移動することに焦点を当てている。
このアプローチは、人間だけが物体とその周囲がどのように見えるかを説明する現実世界の問題から逸脱し、ロボットにどこからでも航行を依頼する。
論文 参考訳(メタデータ) (2021-03-31T15:01:04Z) - Discovering Underground Maps from Fashion [80.02941583103612]
本研究では,都市部の地下地図を自動的に作成する手法を提案する。
本手法は,都市全域から公開されている画像を用いて,類似のファッションセンスを持つ地域を探索し,地図を監督せずにセグメント化する。
論文 参考訳(メタデータ) (2020-12-04T23:40:59Z) - Visual Localization for Autonomous Driving: Mapping the Accurate
Location in the City Maze [16.824901952766446]
視覚的局所化のための新しい特徴投票手法を提案する。
本研究では,提案した特徴投票手法を,最先端の3つの視覚的ローカライゼーションネットワークに実装する。
当社のアプローチは、挑戦的な都市内設定においても、ロバストな位置予測を可能にします。
論文 参考訳(メタデータ) (2020-08-13T03:59:34Z) - Placepedia: Comprehensive Place Understanding with Multi-Faceted
Annotations [79.80036503792985]
Placepediaは、240万のユニークな場所から3500万枚以上の写真を集めた大規模な場所データセットです。
写真に加えて、各場所にはGDP、人口など、膨大な多面的な情報も付属している。
このデータセットは大量のデータと豊富なアノテーションを持ち、様々な研究を行うことができる。
論文 参考訳(メタデータ) (2020-07-07T20:17:01Z) - Location Sensitive Image Retrieval and Tagging [10.832389603397603]
LocSensは画像、タグ、座標の三つ子を可視性でランク付けするモデルである。
LocSensは画像、タグ、座標の三重項を可視性でランク付けするモデルであり、最終的なランク付けにおける位置の影響をバランス付けるための2つのトレーニング戦略である。
論文 参考訳(メタデータ) (2020-07-07T12:09:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。