論文の概要: CogniMap3D: Cognitive 3D Mapping and Rapid Retrieval
- arxiv url: http://arxiv.org/abs/2601.08175v1
- Date: Tue, 13 Jan 2026 03:09:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-14 18:27:19.039436
- Title: CogniMap3D: Cognitive 3D Mapping and Rapid Retrieval
- Title(参考訳): CogniMap3D:認知的3Dマッピングと高速検索
- Authors: Feiran Wang, Junyi Wu, Dawen Cai, Yuan Hong, Yan Yan,
- Abstract要約: 動的3次元シーン理解と再構築のためのバイオインスパイアされたフレームワークであるCogniMap3Dを提案する。
提案手法は静的なシーンの永続的メモリバンクを維持し,空間知識の効率的な記憶と迅速な検索を可能にする。
- 参考スコア(独自算出の注目度): 13.47989214839101
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present CogniMap3D, a bioinspired framework for dynamic 3D scene understanding and reconstruction that emulates human cognitive processes. Our approach maintains a persistent memory bank of static scenes, enabling efficient spatial knowledge storage and rapid retrieval. CogniMap3D integrates three core capabilities: a multi-stage motion cue framework for identifying dynamic objects, a cognitive mapping system for storing, recalling, and updating static scenes across multiple visits, and a factor graph optimization strategy for refining camera poses. Given an image stream, our model identifies dynamic regions through motion cues with depth and camera pose priors, then matches static elements against its memory bank. When revisiting familiar locations, CogniMap3D retrieves stored scenes, relocates cameras, and updates memory with new observations. Evaluations on video depth estimation, camera pose reconstruction, and 3D mapping tasks demonstrate its state-of-the-art performance, while effectively supporting continuous scene understanding across extended sequences and multiple visits.
- Abstract(参考訳): 人間の認知過程をエミュレートする動的3次元シーン理解と再構築のためのバイオインスパイアされたフレームワークであるCogniMap3Dを提案する。
提案手法は静的なシーンの永続的メモリバンクを維持し,空間知識の効率的な記憶と迅速な検索を可能にする。
CogniMap3Dは、動的オブジェクトを識別するマルチステージモーションキューフレームワーク、複数の訪問にまたがる静的シーンの保存、リコール、更新のための認知マッピングシステム、カメラポーズの精細化のためのファクタグラフ最適化戦略の3つのコア機能を統合している。
画像ストリームが与えられた場合,動作キューによる動的領域を奥行きとカメラのポーズで識別し,静的要素をメモリバンクと照合する。
慣れ親しんだ場所を再考すると、CogniMap3Dは保存されたシーンを検索し、カメラをリロケーションし、新しい観測でメモリを更新する。
映像深度推定,カメラポーズ再構成,3次元マッピングタスクの評価は,その最先端性能を示すとともに,連続的なシーン理解を拡張シーケンスと複数訪問で効果的に支援する。
関連論文リスト
- DePT3R: Joint Dense Point Tracking and 3D Reconstruction of Dynamic Scenes in a Single Forward Pass [2.0487171253259104]
DePT3Rは、複数の画像から高密度な点追跡と動的シーンの3次元再構成を同時に行う新しいフレームワークである。
DePT3Rを動的シーンを含むいくつかの困難なベンチマークで検証し、高い性能とメモリ効率の大幅な改善を示す。
論文 参考訳(メタデータ) (2025-12-15T09:21:28Z) - Point3R: Streaming 3D Reconstruction with Explicit Spatial Pointer Memory [72.75478398447396]
我々は,高密度ストリーミング3D再構成を目的としたオンラインフレームワークであるPoint3Rを提案する。
具体的には、現在のシーンの3次元構造に直接関連した空間ポインタメモリを明示的に保持する。
本手法は,訓練コストの低い各種タスクにおいて,競争力や最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2025-07-03T17:59:56Z) - 3D-Mem: 3D Scene Memory for Embodied Exploration and Reasoning [65.40458559619303]
エンボディエージェントのための新しい3Dシーンメモリフレームワークである3D-Memを提案する。
3D-Memは、シーンを表現するために、Memory Snapshotsと呼ばれる情報的なマルチビューイメージを使用している。
さらに、Frontier Snapshots-glimpsの未探索領域対応エージェントを導入して、情報的な意思決定を行うことによって、フロンティアベースの探索をさらに統合する。
論文 参考訳(メタデータ) (2024-11-23T09:57:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。