論文の概要: Improving Place Recognition Using Dynamic Object Detection
- arxiv url: http://arxiv.org/abs/2002.04698v2
- Date: Fri, 12 Jun 2020 04:58:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 02:57:00.549364
- Title: Improving Place Recognition Using Dynamic Object Detection
- Title(参考訳): 動的物体検出による位置認識の改善
- Authors: Juan Pablo Munoz and Scott Dexter
- Abstract要約: 本研究では,多くの動的物体を持つ環境に適した位置認識手法を提案する。
オブジェクト検出前処理のステップを組み込むことで、オブジェクト情報を含む高品質な場所表現が得られる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a novel approach to place recognition well-suited to environments
with many dynamic objects--objects that may or may not be present in an agent's
subsequent visits. By incorporating an object-detecting preprocessing step, our
approach yields high-quality place representations that incorporate object
information. Not only does this result in significantly improved place
recognition in dynamic environments, it also significantly reduces
memory/storage requirements, which may increase the effectiveness of mobile
agents with limited resources.
- Abstract(参考訳): 本稿では,エージェントのその後の訪問に現れるかもしれない,あるいは存在しない可能性のあるオブジェクトを,多数の動的対象を持つ環境に適した位置認識手法を提案する。
オブジェクト検出前処理のステップを組み込むことで、オブジェクト情報を含む高品質な場所表現が得られる。
これは動的環境におけるプレース認識を大幅に改善するだけでなく、メモリ/ストレージ要件を大幅に削減し、限られたリソースでモバイルエージェントの有効性を高める可能性がある。
関連論文リスト
- Learn to Memorize and to Forget: A Continual Learning Perspective of Dynamic SLAM [17.661231232206028]
暗黙的な神経表現を伴う同時局所化とマッピング(SLAM)が注目されている。
動的環境のための新しいSLAMフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-18T09:35:48Z) - Localizing Active Objects from Egocentric Vision with Symbolic World
Knowledge [62.981429762309226]
タスクの指示をエゴセントリックな視点から積極的に下す能力は、AIエージェントがタスクを達成したり、人間をバーチャルに支援する上で不可欠である。
本稿では,現在進行中のオブジェクトの役割を学習し,指示から正確に抽出することで,アクティブなオブジェクトをローカライズするフレーズグラウンドモデルの性能を向上させることを提案する。
Ego4DおよびEpic-Kitchensデータセットに関するフレームワークの評価を行った。
論文 参考訳(メタデータ) (2023-10-23T16:14:05Z) - Cycle Consistency Driven Object Discovery [75.60399804639403]
本研究では,シーンの各オブジェクトが異なるスロットに関連付けられなければならない制約を明示的に最適化する手法を提案する。
これらの一貫性目標を既存のスロットベースのオブジェクト中心手法に統合することにより、オブジェクト発見性能を大幅に改善することを示す。
提案手法は,オブジェクト発見を改善するだけでなく,下流タスクのよりリッチな機能も提供することを示唆している。
論文 参考訳(メタデータ) (2023-06-03T21:49:06Z) - D2SLAM: Semantic visual SLAM based on the influence of Depth for Dynamic
environments [0.483420384410068]
一般化とシーン認識に欠ける動的要素を決定するための新しい手法を提案する。
我々は,幾何学的および意味的モジュールからの推定精度を向上するシーン深度情報を用いる。
その結果, 動的環境における正確な位置推定とマッピングを行う上で, 提案手法の有効性が示された。
論文 参考訳(メタデータ) (2022-10-16T22:13:59Z) - Object Manipulation via Visual Target Localization [64.05939029132394]
オブジェクトを操作するための訓練エージェントは、多くの課題を提起します。
本研究では,対象物体を探索する環境を探索し,位置が特定されると3次元座標を計算し,対象物が見えない場合でも3次元位置を推定する手法を提案する。
評価の結果,同じ感覚スイートにアクセス可能なモデルに比べて,成功率が3倍に向上したことが示された。
論文 参考訳(メタデータ) (2022-03-15T17:59:01Z) - Information is Power: Intrinsic Control via Information Capture [110.3143711650806]
我々は,潜時状態空間モデルを用いて推定したエージェントの状態訪問のエントロピーを最小化する,コンパクトで汎用的な学習目的を論じる。
この目的は、不確実性の低減に対応する環境情報収集と、将来の世界状態の予測不可能性の低減に対応する環境制御の両方をエージェントに誘導する。
論文 参考訳(メタデータ) (2021-12-07T18:50:42Z) - Sequential Decision-Making for Active Object Detection from Hand [43.839322860501596]
手動オブジェクトの相互作用を理解する重要な要素は、アクティブオブジェクトを識別する能力である。
我々は,手の位置と外観を条件とした逐次的意思決定プロセスとして,能動物体検出手法を構築した。
このアプローチの主な革新は、Box Fieldと呼ばれる内部表現を使用するアクティブオブジェクト検出ポリシーの設計です。
論文 参考訳(メタデータ) (2021-10-21T23:40:45Z) - Slender Object Detection: Diagnoses and Improvements [74.40792217534]
本稿では,超高アスペクト比,すなわちtextbfslender オブジェクトの特定タイプの検出について検討する。
古典的物体検出法では、細い物体に対してのみ評価される場合、COCO上の18.9%のmAPの劇的な低下が観察される。
論文 参考訳(メタデータ) (2020-11-17T09:39:42Z) - Visual Object Recognition in Indoor Environments Using Topologically
Persistent Features [2.2344764434954256]
見えない屋内環境における物体認識は、移動ロボットの視覚的認識にとって難しい問題である。
本稿では,この課題に対処するために,オブジェクトの形状情報に依存するトポロジカルに永続的な特徴を用いることを提案する。
提案手法を実世界のロボットに実装し,その有用性を実証する。
論文 参考訳(メタデータ) (2020-10-07T06:04:17Z) - Incremental Object Detection via Meta-Learning [77.55310507917012]
本稿では,段階的タスク間の情報を最適に共有するように,モデル勾配を再形成するメタラーニング手法を提案する。
既存のメタ学習法と比較して,本手法はタスク非依存であり,オブジェクト検出のための高容量モデルに新たなクラスやスケールを段階的に追加することができる。
論文 参考訳(メタデータ) (2020-03-17T13:40:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。