論文の概要: Dehallu3D: Hallucination-Mitigated 3D Generation from Single Image via Cyclic View Consistency Refinement
- arxiv url: http://arxiv.org/abs/2603.01601v1
- Date: Mon, 02 Mar 2026 08:29:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.767461
- Title: Dehallu3D: Hallucination-Mitigated 3D Generation from Single Image via Cyclic View Consistency Refinement
- Title(参考訳): Dehallu3D: サイクリックビュー・コンシスタンス・リファインメントによる単一画像からの幻覚緩和3次元生成
- Authors: Xiwen Wang, Shichao Zhang, Hailun Zhang, Ruowei Wang, Mao Li, Chenyu Zhou, Qijun Zhao, Ji-Zhe Zhou,
- Abstract要約: 大規模な3D再構成モデルも幻覚に悩まされ、入力データから逸脱する構造的なアウトリーチが導入された。
本稿では,3次元メッシュ生成のためのDehallu3Dを提案する。
Dehallu3Dは、幻覚した外れ値を取り除き、構造的詳細を効果的に保存し、高忠実度3D生成を実現する。
- 参考スコア(独自算出の注目度): 26.469769897872414
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large 3D reconstruction models have revolutionized the 3D content generation field, enabling broad applications in virtual reality and gaming. Just like other large models, large 3D reconstruction models suffer from hallucinations as well, introducing structural outliers (e.g., odd holes or protrusions) that deviate from the input data. However, unlike other large models, hallucinations in large 3D reconstruction models remain severely underexplored, leading to malformed 3D-printed objects or insufficient immersion in virtual scenes. Such hallucinations majorly originate from that existing methods reconstruct 3D content from sparsely generated multi-view images which suffer from large viewpoint gaps and discontinuities. To mitigate hallucinations by eliminating the outliers, we propose Dehallu3D for 3D mesh generation. Our key idea is to design a balanced multi-view continuity constraint to enforce smooth transitions across dense intermediate viewpoints, while avoiding over-smoothing that could erase sharp geometric features. Therefore, Dehallu3D employs a plug-and-play optimization module with two key constraints: (i) adjacent consistency to ensure geometric continuity across views, and (ii) adaptive smoothness to retain fine details.We further propose the Outlier Risk Measure (ORM) metric to quantify geometric fidelity in 3D generation from the perspective of outliers. Extensive experiments show that Dehallu3D achieves high-fidelity 3D generation by effectively preserving structural details while removing hallucinated outliers.
- Abstract(参考訳): 大規模な3D再構成モデルは、3Dコンテンツ生成分野に革命をもたらし、仮想現実とゲームに幅広い応用を可能にした。
他の大型モデルと同様に、大型の3D再構成モデルも幻覚に悩まされ、入力データから逸脱する構造上の外れ値(例えば、奇妙な穴や突起)が導入された。
しかし、他の大型モデルとは異なり、大規模な3D再構成モデルにおける幻覚は深刻な過小評価を受けており、不整形な3Dプリントオブジェクトや仮想シーンへの没入は不十分である。
このような幻覚は、大きな視点差と不連続性に苦しむ、疎遠に生成された多視点画像から既存の3Dコンテンツを再構成することに由来する。
そこで我々は3Dメッシュ生成のためのDehallu3Dを提案する。
我々のキーとなる考え方は、鮮明な幾何学的特徴を消し去ることができる過度な平滑化を回避しつつ、高密度な中間視点のスムーズな遷移を強制する、バランスの取れた多視点連続性制約を設計することである。
したがって、Dehallu3Dは2つの制約のあるプラグイン・アンド・プレイ最適化モジュールを使用している。
一 ビュー間の幾何学的連続性を確保するための隣接整合性及び
(II) 細部を維持するための適応的スムースネス, さらに, 外乱率の観点からの3次元生成における幾何学的忠実度を定量化するためのORM(Outlier Risk Measure)メトリクスを提案する。
広汎な実験により、デハルル3Dは幻覚剤を除去しながら構造的詳細を効果的に保存し、高忠実度3D生成を実現することが示された。
関連論文リスト
- SIGMAN:Scaling 3D Human Gaussian Generation with Millions of Assets [72.26350984924129]
本稿では,3次元デジタル化のための潜在空間生成パラダイムを提案する。
我々は,不適切な低次元から高次元のマッピング問題を学習可能な分布シフトに変換する。
我々は、HGS-1Mデータセットを構築するために、合成データと組み合わせた多視点最適化アプローチを採用する。
論文 参考訳(メタデータ) (2025-04-09T15:38:18Z) - Amodal3R: Amodal 3D Reconstruction from Occluded 2D Images [66.77399370856462]
Amodal3Rは、部分的な観測から3Dオブジェクトを再構成するために設計された条件付き3D生成モデルである。
実際のシーンに隠蔽物が存在する場合でも、完全な3Dオブジェクトを復元することを学ぶ。
2次元アモーダルコンプリートと3次元再構成とを独立に行う既存の手法を著しく上回っている。
論文 参考訳(メタデータ) (2025-03-17T17:59:01Z) - Hyper3D: Efficient 3D Representation via Hybrid Triplane and Octree Feature for Enhanced 3D Shape Variational Auto-Encoders [43.61384205458698]
3Dコンテンツ生成パイプラインは、しばしば変分オートエンコーダ(VAE)を利用して、形状をコンパクトな潜在表現にエンコードする。
我々は,ハイブリッド3次元平面とオクツリーを融合した効率的な3次元表現により,VAE再構成を向上するHyper3Dを紹介する。
実験の結果,Hyper3Dは3次元形状を高忠実度で細部まで再現することで従来の表現よりも優れていた。
論文 参考訳(メタデータ) (2025-03-13T14:26:43Z) - Deep Geometric Moments Promote Shape Consistency in Text-to-3D Generation [27.43973967994717]
MT3Dは高忠実度3Dオブジェクトを利用して視点バイアスを克服するテキスト・ツー・3D生成モデルである。
3Dアセットから幾何学的詳細を取り入れることで、MT3Dは多様で幾何学的に一貫したオブジェクトを作成することができる。
論文 参考訳(メタデータ) (2024-08-12T06:25:44Z) - DiffTF++: 3D-aware Diffusion Transformer for Large-Vocabulary 3D Generation [53.20147419879056]
拡散型フィードフォワードフレームワークを導入し,単一モデルで課題に対処する。
TransFormerを用いた3D対応拡散モデルを構築し,より強力な3D生成,すなわちDiffTF++を提案する。
ShapeNetとOmniObject3Dの実験は、提案したモジュールの有効性を確実に実証している。
論文 参考訳(メタデータ) (2024-05-13T17:59:51Z) - Sculpt3D: Multi-View Consistent Text-to-3D Generation with Sparse 3D Prior [57.986512832738704]
本稿では,2次元拡散モデルを再学習することなく,抽出した参照オブジェクトから3次元先行を明示的に注入する,電流パイプラインを備えた新しいフレームワークSculpt3Dを提案する。
具体的には、スパース線サンプリングによるキーポイントの監督により、高品質で多様な3次元形状を保証できることを実証する。
これら2つの分離された設計は、参照オブジェクトからの3D情報を利用して、2D拡散モデルの生成品質を保ちながら、3Dオブジェクトを生成する。
論文 参考訳(メタデータ) (2024-03-14T07:39:59Z) - Large-Vocabulary 3D Diffusion Model with Transformer [57.076986347047]
本稿では,1つの生成モデルを用いて実世界の3Dオブジェクトの大規模カテゴリを合成するための拡散型フィードフォワードフレームワークを提案する。
本稿では,三面体を用いた3次元拡散モデル(TransFormer, DiffTF)を提案する。
ShapeNetとOmniObject3Dの実験は、単一のDiffTFモデルが最先端の大語彙3Dオブジェクト生成性能を達成することを確実に実証している。
論文 参考訳(メタデータ) (2023-09-14T17:59:53Z) - Next3D: Generative Neural Texture Rasterization for 3D-Aware Head
Avatars [36.4402388864691]
3D-Aware Generative Adversarial Network (GANs) は, 単一視点2D画像のコレクションのみを用いて, 高忠実かつ多視点の顔画像を合成する。
最近の研究は、3D Morphable Face Model (3DMM) を用いて、生成放射場における変形を明示的または暗黙的に記述している。
本研究では,非構造化2次元画像から生成的,高品質,かつ3D一貫性のある顔アバターの教師なし学習のための新しい3D GANフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-21T06:40:46Z) - Beyond 3DMM: Learning to Capture High-fidelity 3D Face Shape [77.95154911528365]
3Dモーフィブルモデル(3DMM)の適合性は、その強力な3D先行性のため、顔解析に広く有用である。
以前に再建された3次元顔は、微細な形状が失われるため、視差の低下に悩まされていた。
本論文は, パーソナライズされた形状が対応する人物と同一に見えるよう, パーソナライズされた形状を捉えるための完全な解を提案する。
論文 参考訳(メタデータ) (2022-04-09T03:46:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。