論文の概要: MoE3D: A Mixture-of-Experts Module for 3D Reconstruction
- arxiv url: http://arxiv.org/abs/2601.05208v2
- Date: Mon, 12 Jan 2026 15:58:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 15:02:56.566681
- Title: MoE3D: A Mixture-of-Experts Module for 3D Reconstruction
- Title(参考訳): MoE3D:3D再構成のためのMixture-of-Expertsモジュール
- Authors: Zichen Wang, Ang Cao, Liam J. Wang, Jeong Joon Park,
- Abstract要約: 本稿では,複数のスムーズな深度予測を組み合わせることで,深度境界の不確かさに対処する実験式を提案する。
我々のアプローチは計算効率が高く、訓練データの小さなサブセットを微調整しても、一般化可能な改善を提供する。
- 参考スコア(独自算出の注目度): 25.58837319169964
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a simple yet effective approach to enhance the performance of feed-forward 3D reconstruction models. Existing methods often struggle near depth discontinuities, where standard regression losses encourage spatial averaging and thus blur sharp boundaries. To address this issue, we introduce a mixture-of-experts formulation that handles uncertainty at depth boundaries by combining multiple smooth depth predictions. A softmax weighting head dynamically selects among these hypotheses on a per-pixel basis. By integrating our mixture model into a pre-trained state-of-the-art 3D model, we achieve a substantial reduction of boundary artifacts and gains in overall reconstruction accuracy. Notably, our approach is highly compute efficient, delivering generalizable improvements even when fine-tuned on a small subset of training data while incurring only negligible additional inference computation, suggesting a promising direction for lightweight and accurate 3D reconstruction.
- Abstract(参考訳): 本稿では,フィードフォワード3次元再構成モデルの性能向上のための簡易かつ効果的な手法を提案する。
既存の手法は、標準的な回帰損失によって空間平均化が促進され、シャープな境界がぼやけてしまうような、奥行きの不連続にしばしば苦労する。
この問題に対処するために,複数のスムーズな深度予測を組み合わせることで,深度境界の不確かさを処理できる混合実験式を導入する。
ソフトマックス重み付けヘッドは、これらの仮説の中から画素単位で動的に選択する。
混合モデルを事前訓練した最先端3Dモデルに統合することにより、境界アーチファクトの大幅な削減と全体の再構築精度の向上を実現した。
特に,本手法は計算効率が高く,訓練データの小さな部分集合に微調整を施した場合でも,最小限の追加推論計算しか生成せず,軽量かつ高精度な3次元再構成に向けた有望な方向を示唆する。
関連論文リスト
- PEAR: Pixel-aligned Expressive humAn mesh Recovery [32.39994094033293]
ワイヤード画像から詳細な3Dメッシュを再構築することは、コンピュータビジョンの根本的な課題である。
既存のSMPLXベースの手法は、しばしば推論が遅くなり、粗い身体のポーズしか生成せず、顔や手などの細粒な領域で不規則や不自然な人工物が現れる。
PEARは,高速でロバストな画素配列表現型ヒューマンメッシュリカバリのためのフレームワークである。
論文 参考訳(メタデータ) (2026-01-30T08:12:54Z) - Emergent Extreme-View Geometry in 3D Foundation Models [26.53730031068199]
3Dファウンデーションモデル(3DFM)は、最近3Dビジョンを変換し、画像から直接深度、ポーズ、ポイントマップの合同予測を可能にした。
内部表現について検討し、3DFMは、そのような条件下では訓練されないにもかかわらず、極視的幾何学の創発的な理解を示すことを発見した。
バックボーンバイアス項の小さな部分のみを調整し,デコーダの頭部を凍結させて内部の3次元表現を改良する軽量アライメント方式を提案する。
既存の3DFMでは見えない新しいインターネットシーンのベンチマークであるMegaUnSceneにコントリビュートする。
論文 参考訳(メタデータ) (2025-11-27T18:40:03Z) - MoRE: 3D Visual Geometry Reconstruction Meets Mixture-of-Experts [50.37005070020306]
MoREは、Mixture-of-Experts (MoE)アーキテクチャに基づいた、密集した3Dビジュアル基盤モデルである。
MoREは、幾何推定を安定させ、洗練する信頼に基づく深度補正モジュールを組み込んでいる。
高忠実な表面正規予測のために,高密度なセマンティック特徴とグローバルな3Dバックボーン表現を統合する。
論文 参考訳(メタデータ) (2025-10-31T06:54:27Z) - Pseudo Depth Meets Gaussian: A Feed-forward RGB SLAM Baseline [64.42938561167402]
本稿では,3次元ガウス型SLAMとフィードフォワードリカレント予測モジュールを組み合わせたオンライン3次元再構成手法を提案する。
このアプローチは、遅いテスト時間の最適化を高速なネットワーク推論に置き換え、トラッキング速度を大幅に改善する。
提案手法は,最先端のSplaTAMと同等の性能を示しながら,追跡時間を90%以上削減する。
論文 参考訳(メタデータ) (2025-08-06T16:16:58Z) - An Evaluation of DUSt3R/MASt3R/VGGT 3D Reconstruction on Photogrammetric Aerial Blocks [17.58704237530163]
3Dコンピュータビジョンアルゴリズムは、スパースで非順序のイメージセットの処理に引き続き進歩している。
近年,3次元再構成のための基礎モデルが注目されている。
本稿では,DUSt3R/MASt3R/VGGTモデルを用いて,ポーズ推定と高密度3次元再構成を行う。
論文 参考訳(メタデータ) (2025-07-20T03:09:04Z) - FreeSplat++: Generalizable 3D Gaussian Splatting for Efficient Indoor Scene Reconstruction [50.534213038479926]
FreeSplat++は大規模な屋内全シーン再構築の代替手法である。
深度調整による微調整により,再現精度が大幅に向上し,トレーニング時間も大幅に短縮された。
論文 参考訳(メタデータ) (2025-03-29T06:22:08Z) - SparseFlex: High-Resolution and Arbitrary-Topology 3D Shape Modeling [79.56581753856452]
SparseFlexは、新しいスパース構造のアイソサーフェス表現で、レンダリング損失から最大10243ドルの解像度で、差別化可能なメッシュ再構築を可能にする。
SparseFlexは、高解像度で差別化可能なメッシュ再構成とレンダリングロスによる生成を可能にすることで、3D形状の表現とモデリングの最先端性を著しく向上させる。
論文 参考訳(メタデータ) (2025-03-27T17:46:42Z) - HORT: Monocular Hand-held Objects Reconstruction with Transformers [61.36376511119355]
モノクロ画像から手持ちの物体を3Dで再構成することは、コンピュータビジョンにおいて重要な課題である。
ハンドヘルドオブジェクトの高密度な3次元点群を効率的に再構成するトランスフォーマーモデルを提案する。
提案手法は,高速な推測速度で最先端の精度を達成し,画像の幅を最適化する。
論文 参考訳(メタデータ) (2025-03-27T09:45:09Z) - Difix3D+: Improving 3D Reconstructions with Single-Step Diffusion Models [65.90387371072413]
本稿では,3次元再構成と新規ビュー合成を向上する新しいパイプラインであるDifix3D+を紹介する。
このアプローチのコアとなるのは、レンダリングされた新規ビューにおけるアーティファクトの強化と削除のためにトレーニングされた、単一ステップのイメージ拡散モデルであるDifixです。
論文 参考訳(メタデータ) (2025-03-03T17:58:33Z) - GaussianBody: Clothed Human Reconstruction via 3d Gaussian Splatting [14.937297984020821]
本稿では,3次元ガウシアンスプラッティングをベースとした,ガウシアンボディと呼ばれる新しい布地復元手法を提案する。
静的な3次元ガウススメッティングモデルを動的復元問題に適用することは、複雑な非剛性変形とリッチな布の細部のために非自明である。
本手法は,ダイナミックな衣料人体に高精細な画質で,最先端のフォトリアリスティックなノベルビューレンダリングを実現できることを示す。
論文 参考訳(メタデータ) (2024-01-18T04:48:13Z) - DMV3D: Denoising Multi-View Diffusion using 3D Large Reconstruction
Model [86.37536249046943]
textbfDMV3Dはトランスフォーマーに基づく3次元大規模再構成モデルを用いた新しい3D生成手法である。
再構成モデルでは, 3面のNeRF表現を組み込んで, ノイズの多い多視点画像をNeRF再構成とレンダリングで識別することができる。
論文 参考訳(メタデータ) (2023-11-15T18:58:41Z) - Robust Geometry-Preserving Depth Estimation Using Differentiable
Rendering [93.94371335579321]
我々は、余分なデータやアノテーションを必要とせずに、幾何学保存深度を予測するためにモデルを訓練する学習フレームワークを提案する。
包括的な実験は、我々のフレームワークの優れた一般化能力を強調します。
我々の革新的な損失関数は、ドメイン固有のスケール・アンド・シフト係数を自律的に復元するモデルを可能にします。
論文 参考訳(メタデータ) (2023-09-18T12:36:39Z) - Exploiting Multiple Priors for Neural 3D Indoor Reconstruction [15.282699095607594]
本研究では,大規模屋内環境の再現性を向上するために,複数の正規化戦略を活用するニューラル暗黙的モデリング手法を提案する。
実験結果から,本手法は屋内の挑戦的なシナリオにおいて最先端の3D再構成を実現することが示唆された。
論文 参考訳(メタデータ) (2023-09-13T15:23:43Z) - FrozenRecon: Pose-free 3D Scene Reconstruction with Frozen Depth Models [67.96827539201071]
本稿では,3次元シーン再構成のための新しいテスト時間最適化手法を提案する。
本手法は5つのゼロショットテストデータセット上で,最先端のクロスデータセット再構築を実現する。
論文 参考訳(メタデータ) (2023-08-10T17:55:02Z) - MobileBrick: Building LEGO for 3D Reconstruction on Mobile Devices [78.20154723650333]
高品質な3次元地下構造は3次元物体再構成評価に不可欠である。
本稿では,モバイルデバイスを用いた新しいマルチビューRGBDデータセットを提案する。
我々は,ハイエンド3Dスキャナーを使わずに,精密な3次元地下構造が得られる。
論文 参考訳(メタデータ) (2023-03-03T14:02:50Z) - Monocular 3D Object Reconstruction with GAN Inversion [122.96094885939146]
MeshInversionはテクスチャ化された3Dメッシュの再構築を改善するための新しいフレームワークである。
これは、3Dテクスチャメッシュ合成のために事前訓練された3D GANの生成前を利用する。
本フレームワークは,観察部と観察部の両方で一貫した形状とテクスチャを有する忠実な3次元再構成を実現する。
論文 参考訳(メタデータ) (2022-07-20T17:47:22Z) - Distribution-Aware Single-Stage Models for Multi-Person 3D Pose
Estimation [29.430404703883084]
本稿では,多人数の3Dポーズ推定問題に対処する新しいDASモデルを提案する。
提案するDASモデルでは,3次元カメラ空間における人物位置と人体関節をワンパスで同時に位置決めする。
CMU Panoptic と MuPoTS-3D のベンチマークに関する総合的な実験は、提案したDASモデルの優れた効率を実証している。
論文 参考訳(メタデータ) (2022-03-15T07:30:27Z) - DensePose 3D: Lifting Canonical Surface Maps of Articulated Objects to
the Third Dimension [71.71234436165255]
DensePose 3Dは2次元画像アノテーションのみから弱い教師付きで再構築を学習できる手法である。
3Dスキャンを必要としないため、DensePose 3Dは異なる動物種などの幅広いカテゴリーの学習に利用できる。
我々は,人間と動物のカテゴリーの合成データと実データの両方をベースラインとして,最先端の非剛体構造と比較し,顕著な改善を示した。
論文 参考訳(メタデータ) (2021-08-31T18:33:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。