論文の概要: Style2Fab: Functionality-Aware Segmentation for Fabricating Personalized
3D Models with Generative AI
- arxiv url: http://arxiv.org/abs/2309.06379v1
- Date: Tue, 12 Sep 2023 16:42:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-13 11:59:50.404507
- Title: Style2Fab: Functionality-Aware Segmentation for Fabricating Personalized
3D Models with Generative AI
- Title(参考訳): style2fab: 生成aiでパーソナライズされた3dモデルを作成するための機能対応セグメンテーション
- Authors: Faraz Faruqi, Ahmed Katary, Tarik Hasic, Amira Abdel-Rahman, Nayeemur
Rahman, Leandra Tejedor, Mackenzie Leake, Megan Hofmann, Stefanie Mueller
- Abstract要約: 本稿では,3次元モデルを自動的に機能的および美的要素に分割する手法を提案する。
本手法では, 3次元モデルの美的セグメントを, 機能セグメントに影響を与えることなく選択的に修正することができる。
そこで我々は,Style2Fabというシステムを提案する。
- 参考スコア(独自算出の注目度): 12.735570967063166
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With recent advances in Generative AI, it is becoming easier to automatically
manipulate 3D models. However, current methods tend to apply edits to models
globally, which risks compromising the intended functionality of the 3D model
when fabricated in the physical world. For example, modifying functional
segments in 3D models, such as the base of a vase, could break the original
functionality of the model, thus causing the vase to fall over. We introduce a
method for automatically segmenting 3D models into functional and aesthetic
elements. This method allows users to selectively modify aesthetic segments of
3D models, without affecting the functional segments. To develop this method we
first create a taxonomy of functionality in 3D models by qualitatively
analyzing 1000 models sourced from a popular 3D printing repository,
Thingiverse. With this taxonomy, we develop a semi-automatic classification
method to decompose 3D models into functional and aesthetic elements. We
propose a system called Style2Fab that allows users to selectively stylize 3D
models without compromising their functionality. We evaluate the effectiveness
of our classification method compared to human-annotated data, and demonstrate
the utility of Style2Fab with a user study to show that functionality-aware
segmentation helps preserve model functionality.
- Abstract(参考訳): Generative AIの最近の進歩により、自動的に3Dモデルを操作しやすくなる。
しかし、現在の手法は世界中のモデルに編集を適用する傾向にあり、物理世界で作られた3Dモデルの意図した機能を妥協するリスクがある。
例えば、vaseのベースのような3dモデルにおける機能セグメントの変更は、モデルの元の機能を損なう可能性があるため、vaseが崩壊する可能性がある。
3dモデルを機能的および美的要素に自動的に分割する方法を提案する。
機能セグメントに影響を与えることなく、3次元モデルの美的セグメントを選択的に修正することができる。
この手法を開発するために,人気のある3DプリンティングレポジトリであるThingiverseから得られた1000のモデルを質的に解析することにより,まず3Dモデルにおける機能分類を作成する。
この分類法により、3次元モデルを機能的および審美的要素に分解する半自動分類法を開発した。
本稿では,ユーザが機能を損なうことなく3dモデルを選択的にスタイライゼーションできるstyle2fabというシステムを提案する。
人間の注釈付きデータと比較して分類手法の有効性を評価し,Style2Fabの有用性をユーザスタディで検証し,機能を考慮したセグメンテーションがモデル機能の維持に役立つことを示す。
関連論文リスト
- VISTA3D: A Unified Segmentation Foundation Model For 3D Medical Imaging [18.111368889931885]
VISTA3D,Versatile Imaging SegmenTation,voxel modelを提案する。
確立された3Dセグメンテーションパイプライン上に構築されている。
これは、3D自動(127クラスのサポート)と3Dインタラクティブセグメンテーションの両方で最先端のパフォーマンスを達成する最初のモデルである。
論文 参考訳(メタデータ) (2024-06-07T22:41:39Z) - DIRECT-3D: Learning Direct Text-to-3D Generation on Massive Noisy 3D Data [50.164670363633704]
テキストプロンプトから高品質な3Dアセットを作成するための拡散型3D生成モデルであるDIRECT-3Dを提案する。
我々のモデルは、広範に騒々しく不整合な3D資産で直接訓練されている。
単一クラス生成とテキスト・ツー・3D生成の両方で最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-06-06T17:58:15Z) - SuperGaussian: Repurposing Video Models for 3D Super Resolution [67.19266415499139]
本稿では,幾何学的および外観的詳細を付加することにより,粗い3次元モデルをアップサンプルする,単純でモジュラーで汎用的な手法を提案する。
既存の3次元超解像モデルを直接再利用できることを実証する。
論文 参考訳(メタデータ) (2024-06-02T03:44:50Z) - Cross-Modal Self-Training: Aligning Images and Pointclouds to Learn Classification without Labels [69.55622471172941]
CLIPのような大規模ビジョン2D視覚言語モデルは、一般化可能な(オープン語彙)3D視覚モデルを学ぶために3Dエンコーダと整列することができる。
ゼロショット3Dビジョンモデルのラベルなし分類性能を改善するために、クロスモーダル自己訓練(Cross-MoST: Cross-Modal Self-Training)を提案する。
論文 参考訳(メタデータ) (2024-04-15T21:30:50Z) - Reconstructing Animatable Categories from Videos [65.14948977749269]
アニマタブルな3Dモデルの構築は、3Dスキャン、精巧な登録、手動リグの必要性のために難しい。
本稿では,一眼レフビデオからカテゴリ3Dモデルを構築するRACについて述べる。
私たちは、人間、猫、犬の3Dモデルが50-100のインターネットビデオから学習できることを示します。
論文 参考訳(メタデータ) (2023-05-10T17:56:21Z) - A Convolutional Architecture for 3D Model Embedding [1.3858051019755282]
入力として3Dモデルを扱うディープラーニングアーキテクチャを提案する。
埋め込み表現は3Dオブジェクトの類似性評価を扱うのに役立つセマンティック情報を伝えることを示した。
論文 参考訳(メタデータ) (2021-03-05T15:46:47Z) - Generative VoxelNet: Learning Energy-Based Models for 3D Shape Synthesis
and Analysis [143.22192229456306]
本稿では,体積形状を表す3次元エネルギーモデルを提案する。
提案モデルの利点は6倍である。
実験により,提案モデルが高品質な3d形状パターンを生成できることが実証された。
論文 参考訳(メタデータ) (2020-12-25T06:09:36Z) - PerMO: Perceiving More at Once from a Single Image for Autonomous
Driving [76.35684439949094]
単一画像から完全テクスチャ化された車両の3次元モデルを検出し,セグメント化し,再構成する新しい手法を提案する。
私たちのアプローチは、ディープラーニングの強みと従来のテクニックの優雅さを組み合わせています。
我々はこれらのアルゴリズムを自律運転システムに統合した。
論文 参考訳(メタデータ) (2020-07-16T05:02:45Z) - Convolutional Generation of Textured 3D Meshes [34.20939983046376]
単視点自然画像からの2次元監視のみを用いて,三角形メッシュとそれに伴う高分解能テクスチャマップを生成できるフレームワークを提案する。
我々の研究の重要な貢献は、メッシュとテクスチャを2D表現として符号化することであり、意味的に整合し、2D畳み込みGANで容易にモデル化できる。
本研究では,Pascal3D+カーとCUBにおいて,モデルがクラスラベル,属性,テキストに条件付けされている場合とで,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2020-06-13T15:23:29Z) - Deformation-Aware 3D Model Embedding and Retrieval [37.538109895618156]
与えられたクエリ形状に変形可能な3Dモデルを取得するという新しい問題を導入する。
位置依存型自我中心距離場を利用して非対称な関係を学習する新しいディープ埋め込み手法を提案する。
論文 参考訳(メタデータ) (2020-04-02T19:10:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。