論文の概要: AirLoc: Object-based Indoor Relocalization
- arxiv url: http://arxiv.org/abs/2304.00954v1
- Date: Mon, 3 Apr 2023 13:16:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-04 15:31:47.995072
- Title: AirLoc: Object-based Indoor Relocalization
- Title(参考訳): AirLoc: オブジェクトベースの屋内再ローカライゼーション
- Authors: Aryan, Bowen Li, Sebastian Scherer, Yun-Jou Lin, Chen Wang
- Abstract要約: そこで本研究では,AirLocと呼ばれるシンプルなオブジェクトベース屋内再配置手法を提案する。
オブジェクト再識別とオブジェクト関係の記憶という課題を克服するために,オブジェクトの外観の埋め込みとオブジェクト間の幾何学的関係を抽出する。
その結果、ロバストで正確でポータブルな屋内再局在システムとなり、室内レベルの再局在における最先端の手法を9.5%、精度7%で上回る結果となった。
- 参考スコア(独自算出の注目度): 8.88390498722337
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Indoor relocalization is vital for both robotic tasks like autonomous
exploration and civil applications such as navigation with a cell phone in a
shopping mall. Some previous approaches adopt geometrical information such as
key-point features or local textures to carry out indoor relocalization, but
they either easily fail in an environment with visually similar scenes or
require many database images. Inspired by the fact that humans often remember
places by recognizing unique landmarks, we resort to objects, which are more
informative than geometry elements. In this work, we propose a simple yet
effective object-based indoor relocalization approach, dubbed AirLoc. To
overcome the critical challenges of object reidentification and remembering
object relationships, we extract object-wise appearance embedding and
inter-object geometric relationships. The geometry and appearance features are
integrated to generate cumulative scene features. This results in a robust,
accurate, and portable indoor relocalization system, which outperforms the
state-of-the-art methods in room-level relocalization by 9.5% of PR-AUC and 7%
of accuracy. In addition to exhaustive evaluation, we also carry out real-world
tests, where AirLoc shows robustness in challenges like severe occlusion,
perceptual aliasing, viewpoint shift, and deformation.
- Abstract(参考訳): 屋内再ローカライズは、自律探索のようなロボットのタスクと、ショッピングモールでの携帯電話によるナビゲーションのような民間用途の両方に不可欠である。
従来の手法では、キーポイントの特徴や局所的なテクスチャなどの幾何学的情報を用いて屋内再局在を行うが、視覚的に類似したシーンを持つ環境では容易に失敗するか、多くのデータベースイメージを必要とする。
人間がユニークなランドマークを認識して場所を覚えているという事実にインスパイアされた私たちは、幾何学的要素よりも有益である物体に頼る。
そこで本研究では,AirLocと呼ばれるシンプルなオブジェクトベース屋内再配置手法を提案する。
オブジェクト再識別とオブジェクト関係の記憶という重要な課題を克服するために,オブジェクトの外観の埋め込みとオブジェクト間の幾何学的関係を抽出する。
幾何学的特徴と外観特徴を統合して累積的なシーン特徴を生成する。
その結果、ロバストで正確でポータブルな屋内再局在システムとなり、室内レベルの再局在における最先端の手法を9.5%、精度7%で上回る結果となった。
徹底的な評価に加えて, 重度の咬合, 知覚的エイリアス, 視点シフト, 変形などの課題において, 気流のロバスト性を示す実世界テストも実施する。
関連論文リスト
- Real-Time Indoor Object Detection based on hybrid CNN-Transformer Approach [0.0]
屋内環境でのリアルタイム物体検出はコンピュータビジョンの難しい領域であり、可変照明や複雑な背景といった独特な障害に直面している。
この研究は、既存のデータセットと計算モデルの評価を精査し、洗練されたデータセットの作成につながった。
本稿では,CNN検出モデルを適応させ,室内の散らばったシーンにおける重要な特徴を識別・優先順位付けするモデルの能力を高めるためのアテンション機構を組み込んだ。
論文 参考訳(メタデータ) (2024-09-03T13:14:08Z) - Evaluating saliency scores in point clouds of natural environments by learning surface anomalies [0.2340830801548167]
そこで本稿では, 環境が乱雑な環境と区別し, 環境との相違点を評価することを提案する。
以前のサリエンシ検出アプローチでは、主に手作りの属性が提案されていた。
本稿では,音やテクスチャ面に対応する学習機構を提案する。
論文 参考訳(メタデータ) (2024-08-26T17:04:52Z) - Robust Change Detection Based on Neural Descriptor Fields [53.111397800478294]
我々は、部分的に重なり合う観測結果とノイズのある局所化結果に頑健なオブジェクトレベルのオンライン変化検出手法を開発した。
形状符号の類似性を利用して物体を連想させ, 局所的な物体近傍の空間配置を比較することにより, 観測重複や局所雑音に対する頑健性を示す。
論文 参考訳(メタデータ) (2022-08-01T17:45:36Z) - Finding Fallen Objects Via Asynchronous Audio-Visual Integration [89.75296559813437]
本稿では,3次元仮想環境におけるマルチモーダルオブジェクトのローカライゼーションについて検討する。
カメラとマイクを装備したロボットエージェントは、音声と視覚信号を基礎となる物理学の知識と組み合わせることで、どの物体が落下したか(そしてどこにあるか)を判断しなければならない。
このデータセットは、物理ベースの衝撃音と、フォトリアリスティックな設定でオブジェクト間の複雑な物理的相互作用をシミュレートする3DWorldプラットフォームを使用している。
論文 参考訳(メタデータ) (2022-07-07T17:59:59Z) - Objects Matter: Learning Object Relation Graph for Robust Camera
Relocalization [2.9005223064604078]
本稿では,物体間の深い関係を抽出し,特徴の識別性を高めることを提案する。
特に、画像中のオブジェクトを抽出し、オブジェクトの意味的関係と相対的な空間的手がかりを組み込むディープオブジェクト関係グラフ(ORG)を構築する。
論文 参考訳(メタデータ) (2022-05-26T11:37:11Z) - Discovering Objects that Can Move [55.743225595012966]
手動ラベルなしでオブジェクトを背景から分離する、オブジェクト発見の問題について検討する。
既存のアプローチでは、色、テクスチャ、位置などの外観の手がかりを使用して、ピクセルをオブジェクトのような領域に分類する。
私たちは、動的オブジェクト -- 世界で独立して動くエンティティ -- にフォーカスすることを選びます。
論文 参考訳(メタデータ) (2022-03-18T21:13:56Z) - Object Manipulation via Visual Target Localization [64.05939029132394]
オブジェクトを操作するための訓練エージェントは、多くの課題を提起します。
本研究では,対象物体を探索する環境を探索し,位置が特定されると3次元座標を計算し,対象物が見えない場合でも3次元位置を推定する手法を提案する。
評価の結果,同じ感覚スイートにアクセス可能なモデルに比べて,成功率が3倍に向上したことが示された。
論文 参考訳(メタデータ) (2022-03-15T17:59:01Z) - ObjectFolder: A Dataset of Objects with Implicit Visual, Auditory, and
Tactile Representations [52.226947570070784]
両課題に対処する100のオブジェクトからなるデータセットであるObjectを,2つの重要なイノベーションで紹介する。
まず、オブジェクトは視覚的、聴覚的、触覚的なすべてのオブジェクトの知覚データをエンコードし、多数の多感覚オブジェクト認識タスクを可能にする。
第2に、Objectは統一されたオブジェクト中心のシミュレーションと、各オブジェクトの視覚的テクスチャ、触覚的読み出し、触覚的読み出しに暗黙的な表現を採用しており、データセットの使用が柔軟で共有が容易である。
論文 参考訳(メタデータ) (2021-09-16T14:00:59Z) - Retrieval and Localization with Observation Constraints [12.010135672015704]
RLOCSと呼ばれる視覚的再局在化手法を提案する。
画像検索、意味整合性、幾何学的検証を組み合わせて正確な推定を行う。
本手法は, ローカライゼーションベンチマークにおいて多くの性能向上を実現している。
論文 参考訳(メタデータ) (2021-08-19T06:14:33Z) - Object-to-Scene: Learning to Transfer Object Knowledge to Indoor Scene
Recognition [19.503027767462605]
本研究では,オブジェクトの特徴を抽出し,オブジェクト関係を学習して屋内シーンを認識するオブジェクト・ツー・シーン(OTS)手法を提案する。
OTSは、新たなストリームを使わずに、室内のシーン認識において、最先端の手法を2%以上上回っている。
論文 参考訳(メタデータ) (2021-08-01T08:37:08Z) - Object-Centric Image Generation from Layouts [93.10217725729468]
複数のオブジェクトを持つ複雑なシーンを生成するレイアウト・ツー・イメージ生成法を開発した。
本手法は,シーン内のオブジェクト間の空間的関係の表現を学習し,レイアウトの忠実度の向上につながる。
本稿では,Fr'echet Inception Distanceのオブジェクト中心適応であるSceneFIDを紹介する。
論文 参考訳(メタデータ) (2020-03-16T21:40:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。