論文の概要: DeepJoin: Learning a Joint Occupancy, Signed Distance, and Normal Field
Function for Shape Repair
- arxiv url: http://arxiv.org/abs/2211.12400v1
- Date: Tue, 22 Nov 2022 16:44:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 18:27:49.196103
- Title: DeepJoin: Learning a Joint Occupancy, Signed Distance, and Normal Field
Function for Shape Repair
- Title(参考訳): DeepJoin: 形状修復のための関節機能, サイン付き距離, 正常場機能を学ぶ
- Authors: Nikolas Lamb, Sean Banerjee, Natasha Kholgade Banerjee
- Abstract要約: DeepJoinは、ディープニューラルネットワークを使用して骨折形状の高精度な修復を生成するための、自動化されたアプローチである。
本稿では, 占有機能, 符号付き距離関数, 正常場を組み合わせた, 破面形状修復のための新しい暗黙的形状表現法を提案する。
- 参考スコア(独自算出の注目度): 0.684225774857327
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce DeepJoin, an automated approach to generate high-resolution
repairs for fractured shapes using deep neural networks. Existing approaches to
perform automated shape repair operate exclusively on symmetric objects,
require a complete proxy shape, or predict restoration shapes using
low-resolution voxels which are too coarse for physical repair. We generate a
high-resolution restoration shape by inferring a corresponding complete shape
and a break surface from an input fractured shape. We present a novel implicit
shape representation for fractured shape repair that combines the occupancy
function, signed distance function, and normal field. We demonstrate repairs
using our approach for synthetically fractured objects from ShapeNet, 3D scans
from the Google Scanned Objects dataset, objects in the style of ancient Greek
pottery from the QP Cultural Heritage dataset, and real fractured objects. We
outperform three baseline approaches in terms of chamfer distance and normal
consistency. Unlike existing approaches and restorations using subtraction,
DeepJoin restorations do not exhibit surface artifacts and join closely to the
fractured region of the fractured shape. Our code is available at:
https://github.com/Terascale-All-sensing-Research-Studio/DeepJoin.
- Abstract(参考訳): 深層ニューラルネットワークを用いた破折形状の高分解能補修の自動生成手法であるdeepjoinを紹介する。
自動形状修復を行う既存のアプローチは、対称オブジェクトのみを動作させ、完全なプロキシ形状を必要とし、物理的修復には粗い低解像度のボクセルを用いて復元形状を予測する。
入力フラクチャー形状から対応する完全形状と破面を推定して高分解能復元形状を生成する。
本稿では, 占有機能, 符号付き距離関数, 正常場を組み合わせた, 破面形状修復のための新しい暗黙的形状表現を提案する。
本稿では,Google Scanned Objectsデータセットからの3Dスキャン,QP文化遺産データセットからの古代ギリシアの陶器のスタイルのオブジェクト,および実際の破壊対象について,我々のアプローチを用いて修復を行った。
チャンファー距離と正規整合性の観点から3つのベースラインアプローチを上回ります。
既存のアプローチやサブトラクションによる修復とは異なり、DeepJoinの修復は表面のアーティファクトを示さず、破折した形状の破壊領域と密接に結合する。
私たちのコードは、https://github.com/Terascale-All-sensing-Research-Studio/DeepJoin.comで利用可能です。
関連論文リスト
- 3D Shape Completion with Test-Time Training [6.764513343390546]
署名された距離関数(DeepSDF)の予測に関する関連する研究によって動機付けられたデコーダネットワークを用いる。
断裂した部分への過度な適合は,ShapeNetデータセットの8つの異なる形状カテゴリーを,そのチャムハ距離で復元する上で大きな改善をもたらすことを実証した。
論文 参考訳(メタデータ) (2024-10-24T11:59:32Z) - ShapeGraFormer: GraFormer-Based Network for Hand-Object Reconstruction from a Single Depth Map [11.874184782686532]
そこで本研究では, 現実的な3次元物体形状に対する最初のアプローチを提案し, 一つの深度マップから復元する。
我々のパイプラインは、入力されたボキセル化深度に1対1のマッピングを持つ、ボキセル化ハンドオブジェクト形状も予測する。
さらに、手動オブジェクトの相互作用に基づいて再構成された形状を洗練する別のGraFormerコンポーネントを追加する影響を示す。
論文 参考訳(メタデータ) (2023-10-18T09:05:57Z) - Pix2Repair: Implicit Shape Restoration from Images [7.663519916453075]
Pix2Repairは、壊れた物体の画像を入力として、自動的に3Dプリント可能な復元形状を生成する。
また、Fantastic Breaks Imagedも導入しました。これは、骨折した物体の11,653個の実世界の画像の大規模なデータセットです。
論文 参考訳(メタデータ) (2023-05-29T17:48:09Z) - Fantastic Breaks: A Dataset of Paired 3D Scans of Real-World Broken
Objects and Their Complete Counterparts [0.5572870549559665]
Fantastic Breaksは、150個の壊れたオブジェクトに対してスキャンされ、防水され、クリーン化された3Dメッシュを含むデータセットです。
Fantastic Breaksには、クラスとマテリアルラベル、壊れたメッシュと結合するプロキシ修復部品、手動でアノテートされた破壊境界が含まれている。
複数の学習手法を用いたファンタスティックブレイクによる形状修復評価実験を行った。
論文 参考訳(メタデータ) (2023-03-24T17:03:40Z) - DeepMend: Learning Occupancy Functions to Represent Shape for Repair [0.6087960723103347]
DeepMendは、学習された占有機能を使って骨折形状の修復を再構築する新しいアプローチである。
本研究は, フラクチャー形状の占有を, 基礎となる完全形状の占有と破壊面との結合として表現する。
人工および実世界の走査対象物に模擬骨折を施行し, 実破折マグカップを採取した。
論文 参考訳(メタデータ) (2022-10-11T18:42:20Z) - Single-view 3D Mesh Reconstruction for Seen and Unseen Categories [69.29406107513621]
シングルビュー3Dメッシュ再構成は、シングルビューRGB画像から3D形状を復元することを目的とした、基本的なコンピュータビジョンタスクである。
本稿では,一視点3Dメッシュ再構成に取り組み,未知のカテゴリのモデル一般化について検討する。
我々は、再構築におけるカテゴリ境界を断ち切るために、エンドツーエンドの2段階ネットワークであるGenMeshを提案する。
論文 参考訳(メタデータ) (2022-08-04T14:13:35Z) - Neural Template: Topology-aware Reconstruction and Disentangled
Generation of 3D Meshes [52.038346313823524]
本稿では,Distangled Topologyによる3次元メッシュ再構成と生成のためのDTNetという新しいフレームワークを提案する。
提案手法は,最先端の手法と比較して,特に多様なトポロジで高品質なメッシュを生成することができる。
論文 参考訳(メタデータ) (2022-06-10T08:32:57Z) - A-SDF: Learning Disentangled Signed Distance Functions for Articulated
Shape Representation [62.517760545209065]
A-SDF (Articulated Signed Distance Functions) を導入して, 曲面形状を表す。
本モデルでは, 部分点群や実世界深度画像など, 未知のデータへの一般化を実証する。
論文 参考訳(メタデータ) (2021-04-15T17:53:54Z) - From Points to Multi-Object 3D Reconstruction [71.17445805257196]
単一のRGB画像から複数の3Dオブジェクトを検出し再構成する方法を提案する。
キーポイント検出器は、オブジェクトを中心点としてローカライズし、9-DoF境界ボックスや3D形状を含む全てのオブジェクト特性を直接予測する。
提示されたアプローチは、軽量な再構築を単一ステージで実行し、リアルタイム能力を持ち、完全に微分可能で、エンドツーエンドのトレーナーブルである。
論文 参考訳(メタデータ) (2020-12-21T18:52:21Z) - Geo-PIFu: Geometry and Pixel Aligned Implicit Functions for Single-view
Human Reconstruction [97.3274868990133]
Geo-PIFuは、着物の単色画像から3Dメッシュを復元する方法である。
提案手法は,クエリポイントの符号化と潜在ボクセル特徴を用いたグローバルな形状の制約を両立させることで,人間のメッシュの形状歪みの低減と,競合する手法と比較して表面の細部の改善を図っている。
論文 参考訳(メタデータ) (2020-06-15T01:11:48Z) - Monocular Human Pose and Shape Reconstruction using Part Differentiable
Rendering [53.16864661460889]
近年の研究では、3次元基底真理によって教師されるディープニューラルネットワークを介してパラメトリックモデルを直接推定する回帰に基づく手法が成功している。
本稿では,ボディセグメンテーションを重要な監視対象として紹介する。
部分分割による再構成を改善するために,部分分割により部分ベースモデルを制御可能な部分レベル微分可能部を提案する。
論文 参考訳(メタデータ) (2020-03-24T14:25:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。