論文の概要: Uni-Fusion: Universal Continuous Mapping
- arxiv url: http://arxiv.org/abs/2303.12678v1
- Date: Wed, 22 Mar 2023 16:21:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-23 13:39:20.199903
- Title: Uni-Fusion: Universal Continuous Mapping
- Title(参考訳): Uni-Fusion: ユニバーサルな継続的マッピング
- Authors: Yijun Yuan, Andreas Nuechter
- Abstract要約: 曲面や表面特性(色、赤外など)の普遍的連続写像フレームワークであるUni-Fusionを紹介する。
本稿では,幾何学的および多種多様な特性の符号化をサポートする最初のユニバーサルインプリシット・リサイトモデルを提案する。
1) 表面と色をインクリメンタルに再構成する (2) 2D-to-3D で作製した特性転送 (3) 表面上のテキストCLIP特徴場を生成してオープン語彙のシーン理解を行う。
- 参考スコア(独自算出の注目度): 0.76146285961466
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce Uni-Fusion, an universal continuous mapping framework for
surfaces, surface properties (color, infrared, etc.) and more (latent features
in CLIP embedding space, etc.). We propose the first Universal Implicit
Encoding model that supports encoding of both geometry and various types of
properties (RGB, infrared, feature and etc.) without the need for any training.
Based on that, our framework divides the point cloud into regular grid voxels
and produces a latent feature in each voxel to form a Latent Implicit Map (LIM)
for geometries and arbitrary properties. Then, by fusing a Local LIM of new
frame to Global LIM, an incremental reconstruction is approached. Encoded with
corresponding types of data, our Latent Implicit Map is capable to generate
continuous surfaces, surface properties fields, surface feature fields and any
other possible options. To demonstrate the capabilities of our model, we
implement three applications: (1) incremental reconstruction for surfaces and
color (2) 2D-to-3D fabricated properties transfers (3) open-vocabulary scene
understanding by producing a text CLIP feature field on surfaces. We evaluate
Uni-Fusion by comparing in corresponding applications, from which, Uni-Fusion
shows high flexibility to various of application while performing best or
competitive. The project page of Uni-Fusion is available at
https://jarrome.github.io/Uni-Fusion/
- Abstract(参考訳): 表面、表面特性(色、赤外など)、その他(CLIP埋め込み空間における最新の特徴など)のための普遍的な連続マッピングフレームワークであるUni-Fusionを紹介する。
本稿では,幾何および様々な特性(rgb,赤外線,特徴など)のエンコーディングをトレーニングを必要とせずにサポートする,初の普遍的暗黙的符号化モデルを提案する。
これに基づいて,本フレームワークは点雲を正規格子ボクセルに分割し,各ボクセルに潜時特徴を発生させ,ジオメトリと任意特性のための潜時インプリシットマップ(LIM)を形成する。
次に、Global LIMに新しいフレームのローカルLIMを融合させることで、漸進的な再構成を行う。
対応するデータ型でエンコードされた潜在暗黙マップは、連続的な表面、表面特性フィールド、表面特徴フィールド、その他の可能なオプションを生成することができる。
1) 表面と色をインクリメンタルに再構成する(2) 2D-to-3D 製造された特性伝達 (3) テキストCLIP特徴体を表面上で生成することにより、オープン語彙のシーン理解を実現する。
我々は, 適合するアプリケーションを比較することで, ユニフュージョンの評価を行い, ベストや競争力を保ちながら, 様々なアプリケーションに対して高い柔軟性を示す。
Uni-Fusionのプロジェクトページはhttps://jarrome.github.io/Uni-Fusion/で公開されている。
関連論文リスト
- GaussianAnything: Interactive Point Cloud Latent Diffusion for 3D Generation [75.39457097832113]
本稿では,インタラクティブなポイントクラウド構造ラテント空間を備えたスケーラブルで高品質な3D生成を実現する,新しい3D生成フレームワークを提案する。
本フレームワークでは,複数ビューのRGB-D(epth)-N(ormal)レンダリングを入力として使用する変分オートエンコーダを,3次元形状情報を保存する独自のラテント空間設計を用いて構成する。
提案手法であるGaussianAnythingは,複数モード条件付き3D生成をサポートし,ポイントクラウド,キャプション,シングル/マルチビュー画像入力を可能にする。
論文 参考訳(メタデータ) (2024-11-12T18:59:32Z) - OctFusion: Octree-based Diffusion Models for 3D Shape Generation [19.944789186191763]
OctFusionは1台のNvidia 4090 GPUで2.5秒で任意の解像度で3D形状を生成することができる。
OctFusionは、テクスチャメッシュ生成のための高品質なカラーフィールドと、テキストプロンプト、スケッチ、またはカテゴリラベル上の高品質な3D条件付き形状を生成することで、拡張可能で柔軟性がある。
論文 参考訳(メタデータ) (2024-08-27T01:55:40Z) - Flatten Anything: Unsupervised Neural Surface Parameterization [76.4422287292541]
本研究では,FAM(Flatten Anything Model)を導入し,グローバルな自由境界面パラメータ化を実現する。
従来の手法と比較して,FAMは接続情報を活用することなく,個別の面上で直接動作する。
当社のFAMは前処理を必要とせずに完全に自動化されており,高度に複雑なトポロジを扱うことができる。
論文 参考訳(メタデータ) (2024-05-23T14:39:52Z) - Sur2f: A Hybrid Representation for High-Quality and Efficient Surface
Reconstruction from Multi-view Images [41.81291587750352]
マルチビュー表面再構成は、3次元視覚研究において不適切な逆問題である。
既存の手法のほとんどは、暗黙のメッシュや暗黙のフィールド関数に依存しており、復元のためにフィールドのボリュームレンダリングを使用している。
相補的な方法で両表現の利点を向上することを目的としたハイブリッド表現(Sur2f)を提案する。
論文 参考訳(メタデータ) (2024-01-08T07:22:59Z) - Ternary-Type Opacity and Hybrid Odometry for RGB NeRF-SLAM [58.736472371951955]
表面を交差する光線上の点を3つの領域(前・前・後・後)に分類する3成分式不透明度モデルを導入する。
これにより、より正確な深度のレンダリングが可能となり、画像ワープ技術の性能が向上する。
TTとHOの統合アプローチは,合成および実世界のデータセット上で最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-12-20T18:03:17Z) - Surf-D: Generating High-Quality Surfaces of Arbitrary Topologies Using Diffusion Models [83.35835521670955]
Surf-Dは任意の位相を持つ表面として高品質な3次元形状を生成する新しい方法である。
非符号距離場(UDF)を曲面表現として用いて任意の位相を許容する。
また、ポイントベースのAutoEncoderを用いて、UDFを正確に符号化するためのコンパクトで連続的な潜在空間を学習する新しいパイプラインを提案する。
論文 参考訳(メタデータ) (2023-11-28T18:56:01Z) - Composite Convolution: a Flexible Operator for Deep Learning on 3D Point Clouds [4.104847990024176]
本稿では,3次元点雲を処理する既存の畳み込み演算子に代わる,柔軟で汎用的な複合層について紹介する。
ConvPointやKPConvのような主流のポイント・コンボリューション・レイヤと比較して、我々のコンポジット・レイヤはネットワーク設計の柔軟性を保証し、さらなる正規化の形式を提供します。
合成および実世界のデータセットを用いた実験により,分類,セグメンテーション,異常検出の両面で,当社のCompositeNetsは,同じシーケンシャルアーキテクチャを用いたConvPointより優れており,より深い残差アーキテクチャを持つKPConvと同じような結果が得られることがわかった。
論文 参考訳(メタデータ) (2022-09-23T18:32:18Z) - RangeUDF: Semantic Surface Reconstruction from 3D Point Clouds [106.54285912111888]
本研究では,新たな暗黙的表現に基づくフレームワークであるRangeUDFを紹介し,点雲から連続した3次元シーン表面の形状と意味を復元する。
RangeUDFは4点のクラウドデータセット上で表面再構成を行うための最先端のアプローチを明らかに上回っている。
論文 参考訳(メタデータ) (2022-04-19T21:39:45Z) - GIFS: Neural Implicit Function for General Shape Representation [23.91110763447458]
3次元形状の一般インプリシット関数 (GIFS) は, 一般形状を表す新しい手法である。
3D空間を事前に定義された内側の領域に分割する代わりに、GIFSは2つの点が任意の表面で分離されているかどうかを符号化する。
ShapeNetの実験では、GIFSは再現性、レンダリング効率、視覚的忠実度の観点から、従来の最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2022-04-14T17:29:20Z) - Gradient-SDF: A Semi-Implicit Surface Representation for 3D
Reconstruction [53.315347543761426]
Gradient-SDFは、暗黙的表現と明示的表現の利点を組み合わせた3次元幾何学の新しい表現である。
すべてのボクセルに符号付き距離場とその勾配ベクトル場を格納することにより、暗黙表現の能力を高める。
本研究では,(1)グラディエント・SDFは,ハッシュマップなどの効率的な記憶方式を用いて,深度画像からの直接SDF追跡を行うことができ,(2)グラディエント・SDF表現はボクセル表現で直接光度バンドル調整を行うことができることを示す。
論文 参考訳(メタデータ) (2021-11-26T18:33:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。