論文の概要: Style2Fab: Functionality-Aware Segmentation for Fabricating Personalized
3D Models with Generative AI
- arxiv url: http://arxiv.org/abs/2309.06379v1
- Date: Tue, 12 Sep 2023 16:42:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-13 11:59:50.404507
- Title: Style2Fab: Functionality-Aware Segmentation for Fabricating Personalized
3D Models with Generative AI
- Title(参考訳): style2fab: 生成aiでパーソナライズされた3dモデルを作成するための機能対応セグメンテーション
- Authors: Faraz Faruqi, Ahmed Katary, Tarik Hasic, Amira Abdel-Rahman, Nayeemur
Rahman, Leandra Tejedor, Mackenzie Leake, Megan Hofmann, Stefanie Mueller
- Abstract要約: 本稿では,3次元モデルを自動的に機能的および美的要素に分割する手法を提案する。
本手法では, 3次元モデルの美的セグメントを, 機能セグメントに影響を与えることなく選択的に修正することができる。
そこで我々は,Style2Fabというシステムを提案する。
- 参考スコア(独自算出の注目度): 12.735570967063166
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With recent advances in Generative AI, it is becoming easier to automatically
manipulate 3D models. However, current methods tend to apply edits to models
globally, which risks compromising the intended functionality of the 3D model
when fabricated in the physical world. For example, modifying functional
segments in 3D models, such as the base of a vase, could break the original
functionality of the model, thus causing the vase to fall over. We introduce a
method for automatically segmenting 3D models into functional and aesthetic
elements. This method allows users to selectively modify aesthetic segments of
3D models, without affecting the functional segments. To develop this method we
first create a taxonomy of functionality in 3D models by qualitatively
analyzing 1000 models sourced from a popular 3D printing repository,
Thingiverse. With this taxonomy, we develop a semi-automatic classification
method to decompose 3D models into functional and aesthetic elements. We
propose a system called Style2Fab that allows users to selectively stylize 3D
models without compromising their functionality. We evaluate the effectiveness
of our classification method compared to human-annotated data, and demonstrate
the utility of Style2Fab with a user study to show that functionality-aware
segmentation helps preserve model functionality.
- Abstract(参考訳): Generative AIの最近の進歩により、自動的に3Dモデルを操作しやすくなる。
しかし、現在の手法は世界中のモデルに編集を適用する傾向にあり、物理世界で作られた3Dモデルの意図した機能を妥協するリスクがある。
例えば、vaseのベースのような3dモデルにおける機能セグメントの変更は、モデルの元の機能を損なう可能性があるため、vaseが崩壊する可能性がある。
3dモデルを機能的および美的要素に自動的に分割する方法を提案する。
機能セグメントに影響を与えることなく、3次元モデルの美的セグメントを選択的に修正することができる。
この手法を開発するために,人気のある3DプリンティングレポジトリであるThingiverseから得られた1000のモデルを質的に解析することにより,まず3Dモデルにおける機能分類を作成する。
この分類法により、3次元モデルを機能的および審美的要素に分解する半自動分類法を開発した。
本稿では,ユーザが機能を損なうことなく3dモデルを選択的にスタイライゼーションできるstyle2fabというシステムを提案する。
人間の注釈付きデータと比較して分類手法の有効性を評価し,Style2Fabの有用性をユーザスタディで検証し,機能を考慮したセグメンテーションがモデル機能の維持に役立つことを示す。
関連論文リスト
- Cross-Modal Self-Training: Aligning Images and Pointclouds to Learn Classification without Labels [69.55622471172941]
CLIPのような大規模ビジョン2D視覚言語モデルは、一般化可能な(オープン語彙)3D視覚モデルを学ぶために3Dエンコーダと整列することができる。
ゼロショット3Dビジョンモデルのラベルなし分類性能を改善するために、クロスモーダル自己訓練(Cross-MoST: Cross-Modal Self-Training)を提案する。
論文 参考訳(メタデータ) (2024-04-15T21:30:50Z) - ComboVerse: Compositional 3D Assets Creation Using Spatially-Aware Diffusion Guidance [76.7746870349809]
複雑な構成で高品質な3Dアセットを生成する3D生成フレームワークであるComboVerseについて,複数のモデルを組み合わせることを学習して紹介する。
提案手法は,標準スコア蒸留法と比較して,物体の空間的アライメントを重視している。
論文 参考訳(メタデータ) (2024-03-19T03:39:43Z) - PonderV2: Pave the Way for 3D Foundation Model with A Universal
Pre-training Paradigm [114.47216525866435]
本稿では,効率的な3D表現の獲得を容易にするために,新しいユニバーサル3D事前学習フレームワークを提案する。
PonderV2は、11の室内および屋外ベンチマークで最先端のパフォーマンスを達成したことで、その効果が示唆された。
論文 参考訳(メタデータ) (2023-10-12T17:59:57Z) - Reconstructing Animatable Categories from Videos [65.14948977749269]
アニマタブルな3Dモデルの構築は、3Dスキャン、精巧な登録、手動リグの必要性のために難しい。
本稿では,一眼レフビデオからカテゴリ3Dモデルを構築するRACについて述べる。
私たちは、人間、猫、犬の3Dモデルが50-100のインターネットビデオから学習できることを示します。
論文 参考訳(メタデータ) (2023-05-10T17:56:21Z) - Building 3D Generative Models from Minimal Data [3.472931603805115]
一つの3Dテンプレート(1人1人ではなく1人1人)で顔の認識が可能であることを示す。
我々は,1つの3次元テンプレートと少数の2次元画像を用いて,3次元顔の分布の学習を可能にする,予備的な教師なし学習フレームワークにモデルを拡張した。
論文 参考訳(メタデータ) (2022-03-04T20:10:50Z) - A Convolutional Architecture for 3D Model Embedding [1.3858051019755282]
入力として3Dモデルを扱うディープラーニングアーキテクチャを提案する。
埋め込み表現は3Dオブジェクトの類似性評価を扱うのに役立つセマンティック情報を伝えることを示した。
論文 参考訳(メタデータ) (2021-03-05T15:46:47Z) - Generative VoxelNet: Learning Energy-Based Models for 3D Shape Synthesis
and Analysis [143.22192229456306]
本稿では,体積形状を表す3次元エネルギーモデルを提案する。
提案モデルの利点は6倍である。
実験により,提案モデルが高品質な3d形状パターンを生成できることが実証された。
論文 参考訳(メタデータ) (2020-12-25T06:09:36Z) - PerMO: Perceiving More at Once from a Single Image for Autonomous
Driving [76.35684439949094]
単一画像から完全テクスチャ化された車両の3次元モデルを検出し,セグメント化し,再構成する新しい手法を提案する。
私たちのアプローチは、ディープラーニングの強みと従来のテクニックの優雅さを組み合わせています。
我々はこれらのアルゴリズムを自律運転システムに統合した。
論文 参考訳(メタデータ) (2020-07-16T05:02:45Z) - Convolutional Generation of Textured 3D Meshes [34.20939983046376]
単視点自然画像からの2次元監視のみを用いて,三角形メッシュとそれに伴う高分解能テクスチャマップを生成できるフレームワークを提案する。
我々の研究の重要な貢献は、メッシュとテクスチャを2D表現として符号化することであり、意味的に整合し、2D畳み込みGANで容易にモデル化できる。
本研究では,Pascal3D+カーとCUBにおいて,モデルがクラスラベル,属性,テキストに条件付けされている場合とで,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2020-06-13T15:23:29Z) - Deformation-Aware 3D Model Embedding and Retrieval [37.538109895618156]
与えられたクエリ形状に変形可能な3Dモデルを取得するという新しい問題を導入する。
位置依存型自我中心距離場を利用して非対称な関係を学習する新しいディープ埋め込み手法を提案する。
論文 参考訳(メタデータ) (2020-04-02T19:10:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。