論文の概要: NeuralMeshing: Complete Object Mesh Extraction from Casual Captures
- arxiv url: http://arxiv.org/abs/2508.16026v1
- Date: Fri, 22 Aug 2025 01:06:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-25 16:42:36.217773
- Title: NeuralMeshing: Complete Object Mesh Extraction from Casual Captures
- Title(参考訳): NeuralMeshing: カジュアルキャプチャから完全なオブジェクトメッシュ抽出
- Authors: Floris Erich, Naoya Chiba, Abdullah Mustafa, Ryo Hanai, Noriaki Ando, Yusuke Yoshiyasu, Yukiyasu Domae,
- Abstract要約: 2つ以上のビデオからオブジェクトの幾何モデルを生成する自動システムを提案する。
本システムでは,各ビデオの少なくとも1つのフレームに1つの既知のポイントを指定する必要がある。
残りのフレームは、Structure-from-Motion技術を用いて、世界空間に自動的に配置される。
- 参考スコア(独自算出の注目度): 7.733353540914852
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: How can we extract complete geometric models of objects that we encounter in our daily life, without having access to commercial 3D scanners? In this paper we present an automated system for generating geometric models of objects from two or more videos. Our system requires the specification of one known point in at least one frame of each video, which can be automatically determined using a fiducial marker such as a checkerboard or Augmented Reality (AR) marker. The remaining frames are automatically positioned in world space by using Structure-from-Motion techniques. By using multiple videos and merging results, a complete object mesh can be generated, without having to rely on hole filling. Code for our system is available from https://github.com/FlorisE/NeuralMeshing.
- Abstract(参考訳): 市販の3Dスキャナーを使わずに、私たちの日常生活で遭遇するオブジェクトの完全な幾何学的モデルをどうやって抽出できるのか?
本稿では,2つ以上のビデオからオブジェクトの幾何モデルを生成する自動システムを提案する。
本システムでは,各ビデオの少なくとも1フレームにおいて,チェッカーボードや拡張現実(AR)マーカーなどのフィデューシャルマーカーを用いて自動的に決定できる既知のポイントを1つ指定する必要がある。
残りのフレームは、Structure-from-Motion技術を用いて、世界空間に自動的に配置される。
複数のビデオとマージ結果を使用することで、ホールフィリングに頼ることなく、完全なオブジェクトメッシュを生成することができる。
私たちのシステムのコードはhttps://github.com/FlorisE/NeuralMeshing.comから入手可能です。
関連論文リスト
- Articulate AnyMesh: Open-Vocabulary 3D Articulated Objects Modeling [48.78204955169967]
Articulate Anymeshは,剛性のある3Dメッシュを,オープンな語彙で表現されたものに変換可能な,自動フレームワークである。
実験の結果、Articulate Anymeshは、ツール、おもちゃ、機械装置、車両など、大規模で高品質な3D関節オブジェクトを生成できることがわかった。
論文 参考訳(メタデータ) (2025-02-04T18:59:55Z) - unPIC: A Geometric Multiview Prior for Image to 3D Synthesis [37.52243979087041]
2次元画像からマルチビュー3次元への階層的確率的アプローチを導入する。
拡散 "プライア" は未知の3次元幾何学を予測し、拡散 "デコーダ" を条件に対象の新たなビューを生成する。
ポイントマップに基づく幾何表現を用いて、複数のターゲットビューの生成を同時に調整する。
論文 参考訳(メタデータ) (2024-12-13T16:46:46Z) - Generating 3D-Consistent Videos from Unposed Internet Photos [68.944029293283]
カメラパラメータなどの3Dアノテーションを使わずに,スケーラブルな3D対応ビデオモデルをトレーニングする。
その結果,映像やマルチビューインターネット写真などの2次元データのみを用いて,シーンレベルの3D学習をスケールアップできることが示唆された。
論文 参考訳(メタデータ) (2024-11-20T18:58:31Z) - AutoDecoding Latent 3D Diffusion Models [95.7279510847827]
本稿では,3次元オートデコーダをコアとした静的・明瞭な3次元アセットの生成に対して,新しいアプローチを提案する。
3D Autodecoderフレームワークは、ターゲットデータセットから学んだプロパティを潜時空間に埋め込む。
次に、適切な中間体積潜在空間を特定し、ロバストな正規化と非正規化演算を導入する。
論文 参考訳(メタデータ) (2023-07-07T17:59:14Z) - Unsupervised Volumetric Animation [54.52012366520807]
非剛性変形物体の教師なし3次元アニメーションのための新しい手法を提案する。
本手法は,RGBビデオのみからオブジェクトの3次元構造とダイナミックスを学習する。
我々は,本モデルを用いて,単一ボリュームまたは少数の画像からアニマタブルな3Dオブジェクトを得ることができることを示す。
論文 参考訳(メタデータ) (2023-01-26T18:58:54Z) - ONeRF: Unsupervised 3D Object Segmentation from Multiple Views [59.445957699136564]
OneRFは、追加のマニュアルアノテーションなしで、マルチビューのRGBイメージから3Dのオブジェクトインスタンスを自動的に分割し、再構成する手法である。
セグメント化された3Dオブジェクトは、様々な3Dシーンの編集と新しいビューレンダリングを可能にする別個のNeRF(Neural Radiance Fields)を使用して表現される。
論文 参考訳(メタデータ) (2022-11-22T06:19:37Z) - A Self-supervised Learning System for Object Detection in Videos Using
Random Walks on Graphs [20.369646864364547]
本稿では,画像中の対象の新規かつ未確認なカテゴリを検出するための,自己教師型学習システムを提案する。
提案システムは,様々なオブジェクトを含むシーンの未ラベル映像を入力として受信する。
ビデオのフレームは深度情報を使ってオブジェクトに分割され、各ビデオに沿ってセグメントが追跡される。
論文 参考訳(メタデータ) (2020-11-10T23:37:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。