論文の概要: MeMix: Writing Less, Remembering More for Streaming 3D Reconstruction
- arxiv url: http://arxiv.org/abs/2603.15330v1
- Date: Mon, 16 Mar 2026 14:21:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 18:28:58.424754
- Title: MeMix: Writing Less, Remembering More for Streaming 3D Reconstruction
- Title(参考訳): 3DレコンストラクションをストリーミングするMeMix
- Authors: Jiacheng Dong, Huan Li, Sicheng Zhou, Wenhao Hu, Weili Xu, Yan Wang,
- Abstract要約: トレーニング不要のプラグイン・アンド・プレイモジュールであるMeMixを,リカレント状態をメモリミックスに再キャストすることで,ストリーミング再生を改善する。
MeMixは状態を複数の独立したメモリパッチに分割し、他のメモリを保存しながら最下位のメモリパッチだけを更新する。
7シーンで300-500フレームストリームにわたる平均で15.3%(最大40.0%)の復元完全性エラーを低減する。
- 参考スコア(独自算出の注目度): 11.01217345606816
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reconstruction is a fundamental task in 3D vision and a fundamental capability for spatial intelligence. Particularly, streaming 3D reconstruction is central to real-time spatial perception, yet existing recurrent online models often suffer from progressive degradation on long sequences due to state drift and forgetting, motivating inference-time remedies. We present MeMix, a training-free, plug-and-play module that improves streaming reconstruction by recasting the recurrent state into a Memory Mixture. MeMix partitions the state into multiple independent memory patches and updates only the least-aligned memory patches while exactly preserving others. This selective update mitigates catastrophic forgetting while retaining $O(1)$ inference memory, and requires no fine-tuning or additional learnable parameters, making it directly applicable to existing recurrent reconstruction models. Across standard benchmarks (ScanNet, 7-Scenes, KITTI, etc.), under identical backbones and inference settings, MeMix reduces reconstruction completeness error by 15.3% on average (up to 40.0%) across 300--500 frame streams on 7-Scenes. The code is available at https://dongjiacheng06.github.io/MeMix/
- Abstract(参考訳): レコンストラクションは3次元視覚の基本課題であり、空間知能の基本的な能力である。
特に、ストリーミング3D再構成は、リアルタイムな空間認識の中心であるが、既存のオンラインモデルは、状態の漂流と忘れ、推論時間の改善を動機とする長いシーケンスの進行劣化に悩まされることが多い。
トレーニング不要のプラグイン・アンド・プレイモジュールであるMeMixを,リカレント状態をメモリミックスに再キャストすることで,ストリーミング再生を改善する。
MeMixは状態を複数の独立したメモリパッチに分割し、最小整列のメモリパッチのみを更新すると同時に、他を正確に保存する。
この選択的な更新は、$O(1)$の推論メモリを保持しながら破滅的な忘れを軽減し、微調整や追加の学習可能なパラメータを必要としないため、既存のリカレントリコンストラクションモデルに直接適用することができる。
標準ベンチマーク(ScanNet, 7-Scenes, KITTIなど)を通じて、同じバックボーンと推論設定の下で、MeMixは7-Scenes上の300-500フレームストリームの平均(最大40.0%)で復元完全性エラーを15.3%削減する。
コードはhttps://dongjiacheng06.github.io/MeMix/で公開されている。
関連論文リスト
- LASER: Layer-wise Scale Alignment for Training-Free Streaming 4D Reconstruction [28.14207161940146]
LASERは、オフラインの再構築モデルをストリーミングシステムに変換する、トレーニング不要のフレームワークである。
深度予測を個別の層に分割する階層ワイドスケールアライメントを導入する。
実験により、RAERはカメラポーズ推定およびポイントマップ再構成の精度をオフラインモデルと同等に向上することを示した。
論文 参考訳(メタデータ) (2025-12-15T18:59:04Z) - Remember Me, Refine Me: A Dynamic Procedural Memory Framework for Experience-Driven Agent Evolution [52.76038908826961]
我々は静的ストレージと動的推論のギャップを埋めるため、$textbfReMe$ ($textitRemember Me, Refine Me$)を提案する。
ReMeは3つのメカニズムを通じてメモリライフサイクルを革新する: $textitmulti-faceted distillation$, きめ細かい経験を抽出する。
BFCL-V3とAppWorldの実験では、ReMeが新しい最先端のエージェントメモリシステムを確立している。
論文 参考訳(メタデータ) (2025-12-11T14:40:01Z) - UniVerse: Unleashing the Scene Prior of Video Diffusion Models for Robust Radiance Field Reconstruction [73.29048162438797]
ビデオ拡散モデルに基づくロバストな再構築のための統一フレームワークUniVerseを紹介する。
具体的には、UniVerseはまず、一貫性のない画像を最初のビデオに変換し、その後、特別に設計されたビデオ拡散モデルを使って、それらを一貫したイメージに復元する。
合成と実世界の両方のデータセットを用いた実験は,頑健な再構築において,我々の手法の強い一般化能力と優れた性能を示す。
論文 参考訳(メタデータ) (2025-10-02T04:50:18Z) - TTT3R: 3D Reconstruction as Test-Time Training [69.51086319339662]
テストタイムトレーニングの観点から3次元再構築基盤モデルを再考する。
メモリ状態と受信した観測値のアライメントの信頼性を利用して、クローズドフォーム学習率を導出する。
この訓練のない介入はTTT3Rと呼ばれ、長さの一般化を大幅に改善する。
論文 参考訳(メタデータ) (2025-09-30T17:59:51Z) - Least Redundant Gated Recurrent Neural Network [0.0]
我々は、Deep Memory Update (DMU)と呼ばれるリカレントニューラルネットワークを導入する。
これは、ラグ状態とネットワーク入力の深い変換により、前のメモリ状態を更新することに基づいている。
学習速度をモジュールのサイズに関連付けるため、トレーニングは安定して高速である。
論文 参考訳(メタデータ) (2021-05-28T20:24:00Z) - Tuned Compositional Feature Replays for Efficient Stream Learning [11.697781095636147]
メモリブロックを用いた連続学習アルゴリズムCRUMBを提案する。
CRUMBは、ジェネリック部分を組み合わせることで再構成された特徴マップを再生することで、忘れを緩和する。
私たちは、CRUMBと競合する13の手法を7つの挑戦的データセットでストレステストしました。
論文 参考訳(メタデータ) (2021-04-06T00:53:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。