論文の概要: MoE3D: A Mixture-of-Experts Module for 3D Reconstruction
- arxiv url: http://arxiv.org/abs/2601.05208v2
- Date: Mon, 12 Jan 2026 15:58:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 15:02:56.566681
- Title: MoE3D: A Mixture-of-Experts Module for 3D Reconstruction
- Title(参考訳): MoE3D:3D再構成のためのMixture-of-Expertsモジュール
- Authors: Zichen Wang, Ang Cao, Liam J. Wang, Jeong Joon Park,
- Abstract要約: 本稿では,複数のスムーズな深度予測を組み合わせることで,深度境界の不確かさに対処する実験式を提案する。
我々のアプローチは計算効率が高く、訓練データの小さなサブセットを微調整しても、一般化可能な改善を提供する。
- 参考スコア(独自算出の注目度): 25.58837319169964
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a simple yet effective approach to enhance the performance of feed-forward 3D reconstruction models. Existing methods often struggle near depth discontinuities, where standard regression losses encourage spatial averaging and thus blur sharp boundaries. To address this issue, we introduce a mixture-of-experts formulation that handles uncertainty at depth boundaries by combining multiple smooth depth predictions. A softmax weighting head dynamically selects among these hypotheses on a per-pixel basis. By integrating our mixture model into a pre-trained state-of-the-art 3D model, we achieve a substantial reduction of boundary artifacts and gains in overall reconstruction accuracy. Notably, our approach is highly compute efficient, delivering generalizable improvements even when fine-tuned on a small subset of training data while incurring only negligible additional inference computation, suggesting a promising direction for lightweight and accurate 3D reconstruction.
- Abstract(参考訳): 本稿では,フィードフォワード3次元再構成モデルの性能向上のための簡易かつ効果的な手法を提案する。
既存の手法は、標準的な回帰損失によって空間平均化が促進され、シャープな境界がぼやけてしまうような、奥行きの不連続にしばしば苦労する。
この問題に対処するために,複数のスムーズな深度予測を組み合わせることで,深度境界の不確かさを処理できる混合実験式を導入する。
ソフトマックス重み付けヘッドは、これらの仮説の中から画素単位で動的に選択する。
混合モデルを事前訓練した最先端3Dモデルに統合することにより、境界アーチファクトの大幅な削減と全体の再構築精度の向上を実現した。
特に,本手法は計算効率が高く,訓練データの小さな部分集合に微調整を施した場合でも,最小限の追加推論計算しか生成せず,軽量かつ高精度な3次元再構成に向けた有望な方向を示唆する。
関連論文リスト
- Emergent Extreme-View Geometry in 3D Foundation Models [26.53730031068199]
3Dファウンデーションモデル(3DFM)は、最近3Dビジョンを変換し、画像から直接深度、ポーズ、ポイントマップの合同予測を可能にした。
内部表現について検討し、3DFMは、そのような条件下では訓練されないにもかかわらず、極視的幾何学の創発的な理解を示すことを発見した。
バックボーンバイアス項の小さな部分のみを調整し,デコーダの頭部を凍結させて内部の3次元表現を改良する軽量アライメント方式を提案する。
既存の3DFMでは見えない新しいインターネットシーンのベンチマークであるMegaUnSceneにコントリビュートする。
論文 参考訳(メタデータ) (2025-11-27T18:40:03Z) - MoRE: 3D Visual Geometry Reconstruction Meets Mixture-of-Experts [50.37005070020306]
MoREは、Mixture-of-Experts (MoE)アーキテクチャに基づいた、密集した3Dビジュアル基盤モデルである。
MoREは、幾何推定を安定させ、洗練する信頼に基づく深度補正モジュールを組み込んでいる。
高忠実な表面正規予測のために,高密度なセマンティック特徴とグローバルな3Dバックボーン表現を統合する。
論文 参考訳(メタデータ) (2025-10-31T06:54:27Z) - An Evaluation of DUSt3R/MASt3R/VGGT 3D Reconstruction on Photogrammetric Aerial Blocks [17.58704237530163]
3Dコンピュータビジョンアルゴリズムは、スパースで非順序のイメージセットの処理に引き続き進歩している。
近年,3次元再構成のための基礎モデルが注目されている。
本稿では,DUSt3R/MASt3R/VGGTモデルを用いて,ポーズ推定と高密度3次元再構成を行う。
論文 参考訳(メタデータ) (2025-07-20T03:09:04Z) - Difix3D+: Improving 3D Reconstructions with Single-Step Diffusion Models [65.90387371072413]
本稿では,3次元再構成と新規ビュー合成を向上する新しいパイプラインであるDifix3D+を紹介する。
このアプローチのコアとなるのは、レンダリングされた新規ビューにおけるアーティファクトの強化と削除のためにトレーニングされた、単一ステップのイメージ拡散モデルであるDifixです。
論文 参考訳(メタデータ) (2025-03-03T17:58:33Z) - DMV3D: Denoising Multi-View Diffusion using 3D Large Reconstruction
Model [86.37536249046943]
textbfDMV3Dはトランスフォーマーに基づく3次元大規模再構成モデルを用いた新しい3D生成手法である。
再構成モデルでは, 3面のNeRF表現を組み込んで, ノイズの多い多視点画像をNeRF再構成とレンダリングで識別することができる。
論文 参考訳(メタデータ) (2023-11-15T18:58:41Z) - MobileBrick: Building LEGO for 3D Reconstruction on Mobile Devices [78.20154723650333]
高品質な3次元地下構造は3次元物体再構成評価に不可欠である。
本稿では,モバイルデバイスを用いた新しいマルチビューRGBDデータセットを提案する。
我々は,ハイエンド3Dスキャナーを使わずに,精密な3次元地下構造が得られる。
論文 参考訳(メタデータ) (2023-03-03T14:02:50Z) - Monocular 3D Object Reconstruction with GAN Inversion [122.96094885939146]
MeshInversionはテクスチャ化された3Dメッシュの再構築を改善するための新しいフレームワークである。
これは、3Dテクスチャメッシュ合成のために事前訓練された3D GANの生成前を利用する。
本フレームワークは,観察部と観察部の両方で一貫した形状とテクスチャを有する忠実な3次元再構成を実現する。
論文 参考訳(メタデータ) (2022-07-20T17:47:22Z) - DensePose 3D: Lifting Canonical Surface Maps of Articulated Objects to
the Third Dimension [71.71234436165255]
DensePose 3Dは2次元画像アノテーションのみから弱い教師付きで再構築を学習できる手法である。
3Dスキャンを必要としないため、DensePose 3Dは異なる動物種などの幅広いカテゴリーの学習に利用できる。
我々は,人間と動物のカテゴリーの合成データと実データの両方をベースラインとして,最先端の非剛体構造と比較し,顕著な改善を示した。
論文 参考訳(メタデータ) (2021-08-31T18:33:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。