論文の概要: InstaInpaint: Instant 3D-Scene Inpainting with Masked Large Reconstruction Model
- arxiv url: http://arxiv.org/abs/2506.10980v1
- Date: Thu, 12 Jun 2025 17:59:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 15:37:22.910133
- Title: InstaInpaint: Instant 3D-Scene Inpainting with Masked Large Reconstruction Model
- Title(参考訳): InstaInpaint:Masked Large Restructing Modelを用いたインスタント3D-Scene Inpainting
- Authors: Junqi You, Chieh Hubert Lin, Weijie Lyu, Zhengbo Zhang, Ming-Hsuan Yang,
- Abstract要約: InstaInpaintは、0.4秒以内に2Dインペイントの提案から3Dシーンのインペイントを生成するフレームワークである。
一般化, テクスチュラル整合性, 幾何学的正当性を改善するいくつかの重要な設計を解析し, 同定する。
InstaInpaintは、2つの標準ベンチマークで最先端のパフォーマンスを維持しながら、従来の方法から1000倍のスピードアップを実現している。
- 参考スコア(独自算出の注目度): 46.67494008720215
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in 3D scene reconstruction enable real-time viewing in virtual and augmented reality. To support interactive operations for better immersiveness, such as moving or editing objects, 3D scene inpainting methods are proposed to repair or complete the altered geometry. However, current approaches rely on lengthy and computationally intensive optimization, making them impractical for real-time or online applications. We propose InstaInpaint, a reference-based feed-forward framework that produces 3D-scene inpainting from a 2D inpainting proposal within 0.4 seconds. We develop a self-supervised masked-finetuning strategy to enable training of our custom large reconstruction model (LRM) on the large-scale dataset. Through extensive experiments, we analyze and identify several key designs that improve generalization, textural consistency, and geometric correctness. InstaInpaint achieves a 1000x speed-up from prior methods while maintaining a state-of-the-art performance across two standard benchmarks. Moreover, we show that InstaInpaint generalizes well to flexible downstream applications such as object insertion and multi-region inpainting. More video results are available at our project page: https://dhmbb2.github.io/InstaInpaint_page/.
- Abstract(参考訳): 近年の3次元シーン再構築により,バーチャル・拡張現実のリアルタイム視聴が可能になった。
オブジェクトの移動や編集などの没入性向上のためのインタラクティブな操作を支援するため、3Dシーンの塗装法を提案する。
しかし、現在のアプローチは長大で計算集約的な最適化に依存しており、リアルタイムやオンラインアプリケーションでは実用的ではない。
参照ベースのフィードフォワードフレームワークであるInstaInpaintを提案する。
大規模データセット上でのカスタマイズされた大規模再構成モデル(LRM)のトレーニングを可能にするための,自己監視型マスクファインタニング戦略を開発した。
広範な実験を通じて、一般化、テクスチュラル整合性、幾何学的正当性を改善するいくつかの重要な設計を分析し、同定する。
InstaInpaintは、2つの標準ベンチマークで最先端のパフォーマンスを維持しながら、従来の方法から1000倍のスピードアップを実現している。
さらに,InstaInpaintはオブジェクト挿入やマルチリージョンのインペインティングといった,柔軟なダウンストリームアプリケーションに適していることを示す。
さらなるビデオ結果がプロジェクトのページで公開されている。
関連論文リスト
- IMFine: 3D Inpainting via Geometry-guided Multi-view Refinement [15.206470606085341]
そこで我々は,一貫した視覚的品質とコヒーレントな基礎構造を持つ3Dシーンをインペイントする新しい手法を提案する。
具体的には,幾何学的先行点と,テスト時間適応により学習した多視点改善ネットワークを組み込んだ3次元インペイントパイプラインを提案する。
本研究では,対象マスクを対象マスクから抽出する新しい塗装マスク検出手法を開発し,制約のないシーンの処理性能を向上させる。
論文 参考訳(メタデータ) (2025-03-06T14:50:17Z) - Instant3dit: Multiview Inpainting for Fast Editing of 3D Objects [34.021032306348324]
本稿では,メッシュ,NeRF,ガウスプレートなどの3次元形状を約3秒で編集する生成手法を提案する。
提案手法では, 時間から秒までの3次元生成編集を行ない, 従来よりも高品質な結果が得られる。
論文 参考訳(メタデータ) (2024-11-30T15:58:33Z) - MVInpainter: Learning Multi-View Consistent Inpainting to Bridge 2D and 3D Editing [90.30646271720919]
新規ビュー合成(NVS)と3D生成は、最近顕著に改善されている。
我々はMVInpainterを提案し、3D編集を多視点2Dインペインティングタスクとして再フォーマットする。
MVInpainterは、スクラッチから完全に新しいビューを生成するのではなく、参照ガイダンスで複数のビューイメージを部分的に描き込む。
論文 参考訳(メタデータ) (2024-08-15T07:57:28Z) - EvaSurf: Efficient View-Aware Implicit Textured Surface Reconstruction [53.28220984270622]
3次元再構成法はリアルタイムに3次元整合性のある高忠実度結果を生成する。
提案手法は,合成と実世界の両方のデータセット上で,高品質な外観と正確なメッシュを再構築することができる。
我々の方法は1つのGPUを使ってたった1~2時間でトレーニングでき、40FPS(Frames per second)以上のモバイルデバイス上で実行することができる。
論文 参考訳(メタデータ) (2023-11-16T11:30:56Z) - RIC: Rotate-Inpaint-Complete for Generalizable Scene Reconstruction [43.63574200858472]
一般的なシーン再構成は、以前は目に見えない物体を含むシーンの完全な3次元形状とテクスチャを推定する作業である。
本稿では,2次元から3次元のシーンリフティングによる新しいビューのレンダリングと2次元から3次元のシーンリフティングという2つのステップに分割して,シーン再構築手法を提案する。
論文 参考訳(メタデータ) (2023-07-21T22:39:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。