論文の概要: Gaussian Heritage: 3D Digitization of Cultural Heritage with Integrated Object Segmentation
- arxiv url: http://arxiv.org/abs/2409.19039v1
- Date: Fri, 27 Sep 2024 12:20:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-06 04:40:55.520280
- Title: Gaussian Heritage: 3D Digitization of Cultural Heritage with Integrated Object Segmentation
- Title(参考訳): ガウス文化遺産 総合的対象分割による文化遺産の3次元デジタル化
- Authors: Mahtab Dahaghin, Myrna Castillo, Kourosh Riahidehkordi, Matteo Toso, Alessio Del Bue,
- Abstract要約: RGB画像のみを用いてシーンの3次元レプリカを生成するパイプラインを提案する。
我々は、新しいビュー合成とガウススプラッティングの進歩を活用することでこれを実現している。
このアプローチでは手動のアノテーションは不要で、視覚的な入力は標準のスマートフォンでキャプチャできる。
- 参考スコア(独自算出の注目度): 13.95130440403628
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The creation of digital replicas of physical objects has valuable applications for the preservation and dissemination of tangible cultural heritage. However, existing methods are often slow, expensive, and require expert knowledge. We propose a pipeline to generate a 3D replica of a scene using only RGB images (e.g. photos of a museum) and then extract a model for each item of interest (e.g. pieces in the exhibit). We do this by leveraging the advancements in novel view synthesis and Gaussian Splatting, modified to enable efficient 3D segmentation. This approach does not need manual annotation, and the visual inputs can be captured using a standard smartphone, making it both affordable and easy to deploy. We provide an overview of the method and baseline evaluation of the accuracy of object segmentation. The code is available at https://mahtaabdn.github.io/gaussian_heritage.github.io/.
- Abstract(参考訳): 物理的物体のデジタルレプリカの作成は、有形文化財の保存と普及に貴重な応用である。
しかし、既存の手法はしばしば遅く、高価であり、専門家の知識を必要とする。
本稿では,RGB画像(例えば美術館の写真)のみを用いてシーンの3次元レプリカを生成するパイプラインを提案し,興味のある項目ごとにモデル(例えば展示品)を抽出する。
我々は,新しいビュー合成とガウススプラッティングの進歩を活用して,効率的な3次元セグメンテーションを実現する。
このアプローチでは手動のアノテーションは不要で、標準的なスマートフォンを使って視覚的な入力をキャプチャできるため、手頃で簡単にデプロイできる。
本手法の概要とオブジェクト分割の精度のベースライン評価について述べる。
コードはhttps://mahtaabdn.github.io/gaussian_heritage.github.io/で公開されている。
関連論文リスト
- Find Any Part in 3D [29.232543319667005]
オープンワールドの部分セグメンテーションを3Dで研究する。
AIの最近の進歩は、2Dで効果的なオープンワールド認識能力を示している。
本稿では,3次元部分分割のためのオープンワールド直接予測モデルを提案する。
論文 参考訳(メタデータ) (2024-11-20T18:59:01Z) - Flash3D: Feed-Forward Generalisable 3D Scene Reconstruction from a Single Image [80.48452783328995]
Flash3Dは、1つの画像からシーン再構成と新しいビュー合成を行う方法である。
一般性については、単分子深度推定のための「基礎」モデルから始める。
効率性のために、我々はこの拡張をフィードフォワードガウススプラッティングに基づける。
論文 参考訳(メタデータ) (2024-06-06T17:59:56Z) - Reconstructing Hand-Held Objects in 3D from Images and Videos [53.277402172488735]
モノクローナルなRGB映像が与えられると、時間とともに手持ちの物体の幾何学を3Dで再構築することを目指している。
1枚のRGB画像から手と物体の形状を共同で再構成するMCC-Hand-Object(MCC-HO)を提案する。
次に、GPT-4(V)を用いてテキストから3D生成モデルを作成し、画像中のオブジェクトにマッチする3Dオブジェクトモデルを検索する。
論文 参考訳(メタデータ) (2024-04-09T17:55:41Z) - GaussianObject: High-Quality 3D Object Reconstruction from Four Views with Gaussian Splatting [82.29476781526752]
高度にスパースな視点から3Dオブジェクトを再構成・レンダリングすることは、3Dビジョン技術の応用を促進する上で非常に重要である。
GaussianObjectは、Gaussian splattingで3Dオブジェクトを表現してレンダリングするフレームワークで、4つの入力イメージだけで高いレンダリング品質を実現する。
GaussianObjectは、MipNeRF360、OmniObject3D、OpenIllumination、および私たちが収集した未提示画像など、いくつかの挑戦的なデータセットで評価されている。
論文 参考訳(メタデータ) (2024-02-15T18:42:33Z) - Gaussian Grouping: Segment and Edit Anything in 3D Scenes [65.49196142146292]
ガウシアン・グルーピング(ガウシアン・グルーピング)はガウシアン・スプラッティングを拡張して,オープンワールドの3Dシーンで何かを共同で再構築・分割する。
暗黙のNeRF表現と比較すると,グループ化された3次元ガウシアンは,高画質,微粒度,高効率で,あらゆるものを3次元で再構成,分割,編集することができる。
論文 参考訳(メタデータ) (2023-12-01T17:09:31Z) - Anything-3D: Towards Single-view Anything Reconstruction in the Wild [61.090129285205805]
本稿では,一連の視覚言語モデルとSegment-Anythingオブジェクトセグメンテーションモデルを組み合わせた方法論的フレームワークであるAnything-3Dを紹介する。
提案手法では、BLIPモデルを用いてテキスト記述を生成し、Segment-Anythingモデルを用いて関心対象を効果的に抽出し、テキスト・画像拡散モデルを用いて物体を神経放射場へ持ち上げる。
論文 参考訳(メタデータ) (2023-04-19T16:39:51Z) - Visual Localization using Imperfect 3D Models from the Internet [54.731309449883284]
本稿では,3次元モデルにおける欠陥が局所化精度に与える影響について検討する。
インターネットから得られる3Dモデルは、容易に表現できるシーン表現として有望であることを示す。
論文 参考訳(メタデータ) (2023-04-12T16:15:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。