論文の概要: A Saliency-Guided Street View Image Inpainting Framework for Efficient
Last-Meters Wayfinding
- arxiv url: http://arxiv.org/abs/2205.06934v1
- Date: Sat, 14 May 2022 00:16:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-17 15:44:29.863853
- Title: A Saliency-Guided Street View Image Inpainting Framework for Efficient
Last-Meters Wayfinding
- Title(参考訳): 効率の良いラストメーター・ウェイフィンディングのためのsariency-guided street view image inpainting framework
- Authors: Chuanbo Hu, Shan Jia, Fan Zhang, Xin Li
- Abstract要約: 本稿では,画像ベースウェイフィンディングにおける視覚的障害を軽減するために,サリエンシ誘導型画像塗装フレームワークを提案する。
目的は、人間の視覚的注意を物体の邪魔から目的地関連の物体にリダイレクトすることで、最後のメートルでより効率的で正確なウェイフィニングを実現することである。
- 参考スコア(独自算出の注目度): 13.92492610110197
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Global Positioning Systems (GPS) have played a crucial role in various
navigation applications. Nevertheless, localizing the perfect destination
within the last few meters remains an important but unresolved problem. Limited
by the GPS positioning accuracy, navigation systems always show users a
vicinity of a destination, but not its exact location. Street view images (SVI)
in maps as an immersive media technology have served as an aid to provide the
physical environment for human last-meters wayfinding. However, due to the
large diversity of geographic context and acquisition conditions, the captured
SVI always contains various distracting objects (e.g., pedestrians and
vehicles), which will distract human visual attention from efficiently finding
the destination in the last few meters. To address this problem, we highlight
the importance of reducing visual distraction in image-based wayfinding by
proposing a saliency-guided image inpainting framework. It aims at redirecting
human visual attention from distracting objects to destination-related objects
for more efficient and accurate wayfinding in the last meters. Specifically, a
context-aware distracting object detection method driven by deep salient object
detection has been designed to extract distracting objects from three semantic
levels in SVI. Then we employ a large-mask inpainting method with fast Fourier
convolutions to remove the detected distracting objects. Experimental results
with both qualitative and quantitative analysis show that our saliency-guided
inpainting method can not only achieve great perceptual quality in street view
images but also redirect the human's visual attention to focus more on static
location-related objects than distracting ones. The human-based evaluation also
justified the effectiveness of our method in improving the efficiency of
locating the target destination.
- Abstract(参考訳): 地球測位システム(GPS)は様々なナビゲーションアプリケーションにおいて重要な役割を担っている。
それでも、最後の数メートル以内に完璧な目的地を配置することは、重要だが未解決の問題である。
gps測位精度によって制限されたナビゲーションシステムは、常に目的地付近を示すが、正確な位置は示さない。
没入型メディア技術としてのmapsのストリートビュー画像(svi)は、人間のラストメーター・ウェイフィングの物理的環境を提供するのに役立った。
しかし、地理的状況や取得条件の多様さにより、捕獲されたSVIには、常に様々な注意をそらす物体(歩行者や車両など)が含まれており、最後の数メートルでの目的地の効率的な発見から人間の視覚的注意をそらすことになる。
この問題に対処するために,saliency-guided image inpainting framework の提案により,画像に基づくwayfindingにおける視覚障害の軽減の重要性を強調する。
最後のメートルでより効率的で正確なウェイフィングを行うために、人間の視覚の注意を邪魔する物体から目的地関連の物体に向けることを目的としている。
具体的には,SVIの3つの意味レベルから,深度な物体検出によって駆動されるコンテキスト認識型物体検出手法を考案した。
次に,高速なフーリエ畳み込みによる大きなマスク塗装法を用いて,検出された散乱物体を除去する。
定性的・定量的な分析により, ストリートビュー画像の視覚的品質が向上するだけでなく, 静的な位置関連物体に注意を向けるよう人間の視覚的注意をリダイレクトできることがわかった。
また,人間による評価により,目標地点の配置効率を向上させる方法の有効性を正当化した。
関連論文リスト
- Instance-aware Exploration-Verification-Exploitation for Instance ImageGoal Navigation [88.84058353659107]
インスタンスイメージゴールナビゲーション(IIN)は、探索されていない環境でゴールイメージによって表現された指定されたオブジェクトにナビゲートすることを目的としている。
本稿では、インスタンスレベルの画像目標ナビゲーションのための新しいモジュール型ナビゲーションフレームワーク、Exploration-Verification-Exploitation (IEVE)を提案する。
我々の手法は従来の最先端の手法を超越し、古典的セグメンテーションモデル(0.684対0.561成功)またはロバストモデル(0.702対0.561成功)を用いる。
論文 参考訳(メタデータ) (2024-02-25T07:59:10Z) - How To Not Train Your Dragon: Training-free Embodied Object Goal
Navigation with Semantic Frontiers [94.46825166907831]
Embodied AIにおけるオブジェクトゴールナビゲーション問題に対処するためのトレーニング不要のソリューションを提案する。
本手法は,古典的な視覚的同時ローカライゼーションとマッピング(V-SLAM)フレームワークに基づく,構造化されたシーン表現を構築する。
本手法は,言語先行情報とシーン統計に基づいてシーングラフのセマンティクスを伝搬し,幾何学的フロンティアに意味知識を導入する。
論文 参考訳(メタデータ) (2023-05-26T13:38:33Z) - Progressive Domain Adaptation with Contrastive Learning for Object
Detection in the Satellite Imagery [0.0]
最先端のオブジェクト検出手法は、小さくて密度の高いオブジェクトを特定するのにほとんど失敗している。
本稿では,特徴抽出プロセスを改善する小型物体検出パイプラインを提案する。
未確認データセットにおけるオブジェクト識別の劣化を緩和できることを示す。
論文 参考訳(メタデータ) (2022-09-06T15:16:35Z) - GoToNet: Fast Monocular Scene Exposure and Exploration [0.6204265638103346]
リアルタイム環境探索のための新しい手法を提案する。
我々の方法は良い戦術的な決定を下すのに一面(イメージ)しか必要としない。
GotoとLookatと呼ばれる画素が特徴である2つの方向予測が,本手法のコアを構成する。
論文 参考訳(メタデータ) (2022-06-13T08:28:31Z) - Object Manipulation via Visual Target Localization [64.05939029132394]
オブジェクトを操作するための訓練エージェントは、多くの課題を提起します。
本研究では,対象物体を探索する環境を探索し,位置が特定されると3次元座標を計算し,対象物が見えない場合でも3次元位置を推定する手法を提案する。
評価の結果,同じ感覚スイートにアクセス可能なモデルに比べて,成功率が3倍に向上したことが示された。
論文 参考訳(メタデータ) (2022-03-15T17:59:01Z) - A Fast Location Algorithm for Very Sparse Point Clouds Based on Object
Detection [0.0]
特徴点の少ない状況下で,画像オブジェクト検出によって対象物を素早く検出するアルゴリズムを提案する。
スマートフォンを持って手動で設計したシーンで実験を行い,提案手法の高精度な位置決め速度と精度を示す。
論文 参考訳(メタデータ) (2021-10-21T05:17:48Z) - Augmented reality navigation system for visual prosthesis [67.09251544230744]
反応ナビゲーションと経路計画のソフトウェアを組み込んだ視覚補綴用拡張現実ナビゲーションシステムを提案する。
対象を地図上に配置し、対象の軌道を計画し、対象に示し、障害なく再計画する。
その結果,目標を達成するための時間と距離を減らし,障害物衝突の回数を大幅に減らし,航法性能の向上を図っている。
論文 参考訳(メタデータ) (2021-09-30T09:41:40Z) - Artificial and beneficial -- Exploiting artificial images for aerial
vehicle detection [1.4528189330418975]
本研究では,2次元cad描画から作成した車両を人工的あるいは実際の背景に重ね合わせてトップダウン画像を生成する生成手法を提案する。
修正されたRetinaNetオブジェクト検出ネットワークによる実験では、これらの画像を小さな実世界のデータセットに追加することで、検出パフォーマンスが大幅に向上することを示しています。
論文 参考訳(メタデータ) (2021-04-07T11:06:15Z) - A Simple and Effective Use of Object-Centric Images for Long-Tailed
Object Detection [56.82077636126353]
シーン中心画像における物体検出を改善するために,物体中心画像を活用する。
私たちは、シンプルで驚くほど効果的なフレームワークを提示します。
我々の手法は、レアオブジェクトのオブジェクト検出(およびインスタンスセグメンテーション)の精度を相対的に50%(および33%)向上させることができる。
論文 参考訳(メタデータ) (2021-02-17T17:27:21Z) - Rethinking of the Image Salient Object Detection: Object-level Semantic
Saliency Re-ranking First, Pixel-wise Saliency Refinement Latter [62.26677215668959]
本稿では,意味的に有意な領域を粗い位置で特定する,軽量で教師付きの深層ネットワークを提案する。
次に,これらセマンティック・サリエント領域の深層モデルを画素ワイド・サリエンシ改善として融合する。
提案手法は単純だが有効であり,本手法は主眼をオブジェクトレベルのセマンティック・リグレード問題とみなすための最初の試みである。
論文 参考訳(メタデータ) (2020-08-10T07:12:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。