論文の概要: Digital Modeling for Everyone: Exploring How Novices Approach
Voice-Based 3D Modeling
- arxiv url: http://arxiv.org/abs/2307.04481v2
- Date: Wed, 30 Aug 2023 11:17:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-31 16:45:06.128284
- Title: Digital Modeling for Everyone: Exploring How Novices Approach
Voice-Based 3D Modeling
- Title(参考訳): デジタルモデリング : 初心者が音声3dモデリングにどのようにアプローチするかを探求する
- Authors: Giuseppe Desolda (1), Andrea Esposito (1), Florian M\"uller (2),
Sebastian Feger (2) ((1) University of Bari Aldo Moro, Bari, Italy, (2) LMU
Munich, Munich, Germany)
- Abstract要約: 音声に基づく3Dモデリングにおける初級精神モデルについて,22名の被験者を対象に,オズ研究の高忠実度ウィザードを用いて検討した。
我々は音声アシスタントの設計上の意味を結論づける。
例えば、曖昧で不完全で間違ったコマンドを扱うこと、単純で複合的なオブジェクトを形作るための単純なコマンドセットを提供すること、そして3Dオブジェクトを選択するための異なる戦略を提供することである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Manufacturing tools like 3D printers have become accessible to the wider
society, making the promise of digital fabrication for everyone seemingly
reachable. While the actual manufacturing process is largely automated today,
users still require knowledge of complex design applications to produce
ready-designed objects and adapt them to their needs or design new objects from
scratch. To lower the barrier to the design and customization of personalized
3D models, we explored novice mental models in voice-based 3D modeling by
conducting a high-fidelity Wizard of Oz study with 22 participants. We
performed a thematic analysis of the collected data to understand how the
mental model of novices translates into voice-based 3D modeling. We conclude
with design implications for voice assistants. For example, they have to: deal
with vague, incomplete and wrong commands; provide a set of straightforward
commands to shape simple and composite objects; and offer different strategies
to select 3D objects.
- Abstract(参考訳): 3dプリンターのような製造ツールが、より広い社会に届けられるようになり、誰もが手が届くようにデジタル製造を約束している。
実際の製造プロセスは現在、ほとんど自動化されているが、ユーザはまだ複雑な設計アプリケーションに関する知識を必要としており、準備が整ったオブジェクトを作成し、ニーズに適応したり、新しいオブジェクトをスクラッチから設計したりする。
パーソナライズされた3dモデルの設計とカスタマイズの障壁を低くするため,音声ベースの3dモデリングにおける初心者精神モデルを検討し,22名の参加者を対象に,oz研究の忠実度の高いウィザードを実施した。
対象者の心理モデルが音声に基づく3dモデリングにどのように変換されるかを理解するために,収集したデータのテーマ分析を行った。
音声アシスタントの設計上の意味から結論づける。
例えば、曖昧で不完全で間違ったコマンドを扱うこと、シンプルで複合的なオブジェクトを形作るための簡単なコマンドセットを提供すること、3dオブジェクトを選択するためのさまざまな戦略を提供すること。
関連論文リスト
- En3D: An Enhanced Generative Model for Sculpting 3D Humans from 2D
Synthetic Data [36.51674664590734]
本研究では,高品質な3次元アバターの小型化を図ったEn3Dを提案する。
従来の3Dデータセットの不足や、視角が不均衡な限られた2Dコレクションと異なり、本研究の目的は、ゼロショットで3D人間を作れる3Dの開発である。
論文 参考訳(メタデータ) (2024-01-02T12:06:31Z) - Make-A-Character: High Quality Text-to-3D Character Generation within
Minutes [28.30067870250642]
本研究では,テキスト記述から3Dアバターを作成するために,Make-A-Character (Mach) というユーザフレンドリーなフレームワークを提案する。
制御可能で現実的で、完全に実現された3Dキャラクタを2分以内で作成するための直感的なアプローチを提供する。
論文 参考訳(メタデータ) (2023-12-24T08:11:39Z) - 3D-GPT: Procedural 3D Modeling with Large Language Models [50.57513088909881]
命令駆動3Dモデリングのための大規模言語モデル(LLM)を利用するフレームワークである3D-GPTを紹介する。
3D-GPTは、3Dモデリングタスクをアクセス可能なセグメントに分割し、各タスクにアプエージェントを割り当てる。
我々の実証調査では、3D-GPTが解釈し、指示を実行し、信頼性の高い結果を提供するだけでなく、人間デザイナーと効果的に協力することを確認した。
論文 参考訳(メタデータ) (2023-10-19T17:41:48Z) - CLIP-Guided Vision-Language Pre-training for Question Answering in 3D
Scenes [68.61199623705096]
我々は,モデルが意味論的かつ伝達可能な3Dシーンポイントクラウド表現を学習するのに役立つ,新しい3D事前学習型ビジョンランゲージを設計する。
符号化された3Dシーン特徴と対応する2D画像とテキスト埋め込みとを一致させることにより、人気のあるCLIPモデルの表現力を3Dエンコーダに注入する。
我々は,3次元視覚質問応答の下流課題に対して,我々のモデルによる3次元世界推論能力を評価する。
論文 参考訳(メタデータ) (2023-04-12T16:52:29Z) - CC3D: Layout-Conditioned Generation of Compositional 3D Scenes [49.281006972028194]
本稿では,複雑な3次元シーンを2次元セマンティックなシーンレイアウトで合成する条件生成モデルであるCC3Dを紹介する。
合成3D-FRONTと実世界のKITTI-360データセットに対する評価は、我々のモデルが視覚的および幾何学的品質を改善したシーンを生成することを示す。
論文 参考訳(メタデータ) (2023-03-21T17:59:02Z) - GET3D: A Generative Model of High Quality 3D Textured Shapes Learned
from Images [72.15855070133425]
本稿では,複雑なトポロジ,リッチな幾何学的ディテール,高忠実度テクスチャを備えたExplicit Textured 3Dメッシュを直接生成する生成モデルであるGET3Dを紹介する。
GET3Dは、車、椅子、動物、バイク、人間キャラクターから建物まで、高品質な3Dテクスチャメッシュを生成することができる。
論文 参考訳(メタデータ) (2022-09-22T17:16:19Z) - 3D Neural Scene Representations for Visuomotor Control [78.79583457239836]
我々は2次元視覚観測から動的3次元シーンのモデルを純粋に学習する。
学習した表現空間上に構築された動的モデルにより,操作課題に対するビジュモータ制御が可能となる。
論文 参考訳(メタデータ) (2021-07-08T17:49:37Z) - Interactive Annotation of 3D Object Geometry using 2D Scribbles [84.51514043814066]
本稿では,ポイントクラウドデータとRGB画像から3次元オブジェクト形状をアノテートする対話型フレームワークを提案する。
当社のフレームワークは,芸術的,グラフィック的専門知識のないナイーブユーザを対象としている。
論文 参考訳(メタデータ) (2020-08-24T21:51:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。