論文の概要: Digital Modeling for Everyone: Exploring How Novices Approach
Voice-Based 3D Modeling
- arxiv url: http://arxiv.org/abs/2307.04481v1
- Date: Mon, 10 Jul 2023 11:03:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-11 13:21:48.842364
- Title: Digital Modeling for Everyone: Exploring How Novices Approach
Voice-Based 3D Modeling
- Title(参考訳): デジタルモデリング : 初心者が音声3dモデリングにどのようにアプローチするかを探求する
- Authors: Giuseppe Desolda (1), Andrea Esposito (1), Florian M\"uller (2),
Sebastian Feger (2) ((1) University of Bari Aldo Moro, Bari, Italy, (2) LMU
Munich, Munich, Germany)
- Abstract要約: 音声に基づく3Dモデリングにおける初級精神モデルについて,22名の被験者を対象に,オズ研究の高忠実度ウィザードを用いて検討した。
我々は音声アシスタントの設計上の意味を結論づける。
例えば、曖昧で不完全で間違ったコマンドを扱うこと、単純で複合的なオブジェクトを形作るための単純なコマンドセットを提供すること、そして3Dオブジェクトを選択するための異なる戦略を提供することである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Manufacturing tools like 3D printers have become accessible to the wider
society, making the promise of digital fabrication for everyone seemingly
reachable. While the actual manufacturing process is largely automated today,
users still require knowledge of complex design applications to produce
ready-designed objects and adapt them to their needs or design new objects from
scratch. To lower the barrier to the design and customization of personalized
3D models, we explored novice mental models in voice-based 3D modeling by
conducting a high-fidelity Wizard of Oz study with 22 participants. We
performed a thematic analysis of the collected data to understand how the
mental model of novices translates into voice-based 3D modeling. We conclude
with design implications for voice assistants. For example, they have to: deal
with vague, incomplete and wrong commands; provide a set of straightforward
commands to shape simple and composite objects; and offer different strategies
to select 3D objects.
- Abstract(参考訳): 3dプリンターのような製造ツールが、より広い社会に届けられるようになり、誰もが手が届くようにデジタル製造を約束している。
実際の製造プロセスは現在、ほとんど自動化されているが、ユーザはまだ複雑な設計アプリケーションに関する知識を必要としており、準備が整ったオブジェクトを作成し、ニーズに適応したり、新しいオブジェクトをスクラッチから設計したりする。
パーソナライズされた3dモデルの設計とカスタマイズの障壁を低くするため,音声ベースの3dモデリングにおける初心者精神モデルを検討し,22名の参加者を対象に,oz研究の忠実度の高いウィザードを実施した。
対象者の心理モデルが音声に基づく3dモデリングにどのように変換されるかを理解するために,収集したデータのテーマ分析を行った。
音声アシスタントの設計上の意味から結論づける。
例えば、曖昧で不完全で間違ったコマンドを扱うこと、シンプルで複合的なオブジェクトを形作るための簡単なコマンドセットを提供すること、3dオブジェクトを選択するためのさまざまな戦略を提供すること。
関連論文リスト
- Scalable Cloud-Native Pipeline for Efficient 3D Model Reconstruction from Monocular Smartphone Images [9.61065600471628]
スマートフォンカメラで撮影したモノクロ2D画像から3Dモデルを自動的に再構築する,クラウドネイティブなパイプラインを提案する。
我々のソリューションは、組込み材料とテクスチャを備えた再利用可能な3Dモデルを作成し、外部ソフトウェアや3Dエンジンでエクスポート可能でカスタマイズできる。
論文 参考訳(メタデータ) (2024-09-28T11:15:26Z) - Chat-Edit-3D: Interactive 3D Scene Editing via Text Prompts [76.73043724587679]
CE3Dと呼ばれる対話型3Dシーン編集手法を提案する。
Hash-Atlasは3Dシーンビューを表し、3Dシーンの編集を2Dアトラスイメージに転送する。
その結果、CE3Dは複数の視覚モデルを効果的に統合し、多様な視覚効果が得られることを示した。
論文 参考訳(メタデータ) (2024-07-09T13:24:42Z) - Shaping Realities: Enhancing 3D Generative AI with Fabrication Constraints [36.65470465480772]
ジェネレーティブAIツールは、ユーザーがテキストやイメージを入力として新しいモデルを操作したり作成したりできる3Dモデリングにおいて、より普及しつつある。
これらの手法は, 3Dモデルの美的品質に焦点を合わせ, ユーザが提供するプロンプトに類似するように仕上げる。
製造を意図した3Dモデルを作成する場合、デザイナーは3Dモデルの美的特性を、その物理的特性とトレードオフする必要がある。
論文 参考訳(メタデータ) (2024-04-15T21:22:57Z) - SUGAR: Pre-training 3D Visual Representations for Robotics [85.55534363501131]
ロボット工学のための新しい3D事前学習フレームワークSUGARを紹介した。
SUGARは3次元の点雲を通してオブジェクトの意味的、幾何学的、および余分な特性をキャプチャする。
SuGARの3D表現は最先端の2Dおよび3D表現よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-04-01T21:23:03Z) - En3D: An Enhanced Generative Model for Sculpting 3D Humans from 2D
Synthetic Data [36.51674664590734]
本研究では,高品質な3次元アバターの小型化を図ったEn3Dを提案する。
従来の3Dデータセットの不足や、視角が不均衡な限られた2Dコレクションと異なり、本研究の目的は、ゼロショットで3D人間を作れる3Dの開発である。
論文 参考訳(メタデータ) (2024-01-02T12:06:31Z) - 3D-GPT: Procedural 3D Modeling with Large Language Models [47.72968643115063]
命令駆動3Dモデリングのための大規模言語モデル(LLM)を利用するフレームワークである3D-GPTを紹介する。
3D-GPTは、3Dモデリングタスクをアクセス可能なセグメントに分割し、各タスクにアプエージェントを割り当てる。
我々の実証調査では、3D-GPTが解釈し、指示を実行し、信頼性の高い結果を提供するだけでなく、人間デザイナーと効果的に協力することを確認した。
論文 参考訳(メタデータ) (2023-10-19T17:41:48Z) - CLIP-Guided Vision-Language Pre-training for Question Answering in 3D
Scenes [68.61199623705096]
我々は,モデルが意味論的かつ伝達可能な3Dシーンポイントクラウド表現を学習するのに役立つ,新しい3D事前学習型ビジョンランゲージを設計する。
符号化された3Dシーン特徴と対応する2D画像とテキスト埋め込みとを一致させることにより、人気のあるCLIPモデルの表現力を3Dエンコーダに注入する。
我々は,3次元視覚質問応答の下流課題に対して,我々のモデルによる3次元世界推論能力を評価する。
論文 参考訳(メタデータ) (2023-04-12T16:52:29Z) - 3D Neural Scene Representations for Visuomotor Control [78.79583457239836]
我々は2次元視覚観測から動的3次元シーンのモデルを純粋に学習する。
学習した表現空間上に構築された動的モデルにより,操作課題に対するビジュモータ制御が可能となる。
論文 参考訳(メタデータ) (2021-07-08T17:49:37Z) - Interactive Annotation of 3D Object Geometry using 2D Scribbles [84.51514043814066]
本稿では,ポイントクラウドデータとRGB画像から3次元オブジェクト形状をアノテートする対話型フレームワークを提案する。
当社のフレームワークは,芸術的,グラフィック的専門知識のないナイーブユーザを対象としている。
論文 参考訳(メタデータ) (2020-08-24T21:51:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。