論文の概要: MoE3D: A Mixture-of-Experts Module for 3D Reconstruction
- arxiv url: http://arxiv.org/abs/2601.05208v1
- Date: Thu, 08 Jan 2026 18:33:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 17:01:53.336801
- Title: MoE3D: A Mixture-of-Experts Module for 3D Reconstruction
- Title(参考訳): MoE3D:3D再構成のためのMixture-of-Expertsモジュール
- Authors: Zichen Wang, Ang Cao, Liam J. Wang, Jeong Joon Park,
- Abstract要約: MoE3Dは深度マップを予測し、動的重み付けによってそれらを融合する。
VGGTのようなトレーニング済みの3D再構成バックボーンと統合すると、再構成品質が大幅に向上する。
- 参考スコア(独自算出の注目度): 25.58837319169964
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: MoE3D is a mixture-of-experts module designed to sharpen depth boundaries and mitigate flying-point artifacts (highlighted in red) of existing feed-forward 3D reconstruction models (left side). MoE3D predicts multiple candidate depth maps and fuses them via dynamic weighting (visualized by MoE weights on the right side). When integrated with a pre-trained 3D reconstruction backbone such as VGGT, it substantially enhances reconstruction quality with minimal additional computational overhead. Best viewed digitally.
- Abstract(参考訳): MoE3Dは、既存のフィードフォワード3D再構築モデル(左側)の深度境界を鋭くし、飛行点のアーティファクト(赤でハイライトされた)を緩和するために設計された、試験用混合モジュールである。
MoE3Dは複数の候補深度マップを予測し、動的重み付けによってそれらを融合させる(右側のMoE重みによって視覚化される)。
VGGTのような事前訓練された3D再構成バックボーンと統合すると、最小限の計算オーバーヘッドで再構成品質を大幅に向上する。
デジタルで見るのが得意。
関連論文リスト
- Emergent Extreme-View Geometry in 3D Foundation Models [26.53730031068199]
3Dファウンデーションモデル(3DFM)は、最近3Dビジョンを変換し、画像から直接深度、ポーズ、ポイントマップの合同予測を可能にした。
内部表現について検討し、3DFMは、そのような条件下では訓練されないにもかかわらず、極視的幾何学の創発的な理解を示すことを発見した。
バックボーンバイアス項の小さな部分のみを調整し,デコーダの頭部を凍結させて内部の3次元表現を改良する軽量アライメント方式を提案する。
既存の3DFMでは見えない新しいインターネットシーンのベンチマークであるMegaUnSceneにコントリビュートする。
論文 参考訳(メタデータ) (2025-11-27T18:40:03Z) - MoRE: 3D Visual Geometry Reconstruction Meets Mixture-of-Experts [50.37005070020306]
MoREは、Mixture-of-Experts (MoE)アーキテクチャに基づいた、密集した3Dビジュアル基盤モデルである。
MoREは、幾何推定を安定させ、洗練する信頼に基づく深度補正モジュールを組み込んでいる。
高忠実な表面正規予測のために,高密度なセマンティック特徴とグローバルな3Dバックボーン表現を統合する。
論文 参考訳(メタデータ) (2025-10-31T06:54:27Z) - An Evaluation of DUSt3R/MASt3R/VGGT 3D Reconstruction on Photogrammetric Aerial Blocks [17.58704237530163]
3Dコンピュータビジョンアルゴリズムは、スパースで非順序のイメージセットの処理に引き続き進歩している。
近年,3次元再構成のための基礎モデルが注目されている。
本稿では,DUSt3R/MASt3R/VGGTモデルを用いて,ポーズ推定と高密度3次元再構成を行う。
論文 参考訳(メタデータ) (2025-07-20T03:09:04Z) - Difix3D+: Improving 3D Reconstructions with Single-Step Diffusion Models [65.90387371072413]
本稿では,3次元再構成と新規ビュー合成を向上する新しいパイプラインであるDifix3D+を紹介する。
このアプローチのコアとなるのは、レンダリングされた新規ビューにおけるアーティファクトの強化と削除のためにトレーニングされた、単一ステップのイメージ拡散モデルであるDifixです。
論文 参考訳(メタデータ) (2025-03-03T17:58:33Z) - DMV3D: Denoising Multi-View Diffusion using 3D Large Reconstruction
Model [86.37536249046943]
textbfDMV3Dはトランスフォーマーに基づく3次元大規模再構成モデルを用いた新しい3D生成手法である。
再構成モデルでは, 3面のNeRF表現を組み込んで, ノイズの多い多視点画像をNeRF再構成とレンダリングで識別することができる。
論文 参考訳(メタデータ) (2023-11-15T18:58:41Z) - MobileBrick: Building LEGO for 3D Reconstruction on Mobile Devices [78.20154723650333]
高品質な3次元地下構造は3次元物体再構成評価に不可欠である。
本稿では,モバイルデバイスを用いた新しいマルチビューRGBDデータセットを提案する。
我々は,ハイエンド3Dスキャナーを使わずに,精密な3次元地下構造が得られる。
論文 参考訳(メタデータ) (2023-03-03T14:02:50Z) - Monocular 3D Object Reconstruction with GAN Inversion [122.96094885939146]
MeshInversionはテクスチャ化された3Dメッシュの再構築を改善するための新しいフレームワークである。
これは、3Dテクスチャメッシュ合成のために事前訓練された3D GANの生成前を利用する。
本フレームワークは,観察部と観察部の両方で一貫した形状とテクスチャを有する忠実な3次元再構成を実現する。
論文 参考訳(メタデータ) (2022-07-20T17:47:22Z) - DensePose 3D: Lifting Canonical Surface Maps of Articulated Objects to
the Third Dimension [71.71234436165255]
DensePose 3Dは2次元画像アノテーションのみから弱い教師付きで再構築を学習できる手法である。
3Dスキャンを必要としないため、DensePose 3Dは異なる動物種などの幅広いカテゴリーの学習に利用できる。
我々は,人間と動物のカテゴリーの合成データと実データの両方をベースラインとして,最先端の非剛体構造と比較し,顕著な改善を示した。
論文 参考訳(メタデータ) (2021-08-31T18:33:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。