論文の概要: 3Description: An Intuitive Human-AI Collaborative 3D Modeling Approach
- arxiv url: http://arxiv.org/abs/2506.21845v1
- Date: Fri, 27 Jun 2025 01:33:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-30 21:12:23.04704
- Title: 3Description: An Intuitive Human-AI Collaborative 3D Modeling Approach
- Title(参考訳): 3Description: 直感的な人間-AI協調型3Dモデリングアプローチ
- Authors: Zhuodi Cai,
- Abstract要約: 3Descriptionは、従来の3Dモデリングにおけるアクセシビリティとユーザビリティの課題に対処することを目的としている。
非専門的な個人が、言葉とジェスチャーの記述を使って3Dモデルを作成することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper presents 3Description, an experimental human-AI collaborative approach for intuitive 3D modeling. 3Description aims to address accessibility and usability challenges in traditional 3D modeling by enabling non-professional individuals to co-create 3D models using verbal and gesture descriptions. Through a combination of qualitative research, product analysis, and user testing, 3Description integrates AI technologies such as Natural Language Processing and Computer Vision, powered by OpenAI and MediaPipe. Recognizing the web has wide cross-platform capabilities, 3Description is web-based, allowing users to describe the desired model and subsequently adjust its components using verbal and gestural inputs. In the era of AI and emerging media, 3Description not only contributes to a more inclusive and user-friendly design process, empowering more people to participate in the construction of the future 3D world, but also strives to increase human engagement in co-creation with AI, thereby avoiding undue surrender to technology and preserving human creativity.
- Abstract(参考訳): 本稿では,直感的な3次元モデリングのための実験的な人間-AI協調手法である3Descriptionを提案する。
3Descriptionは, 従来の3Dモデリングにおけるアクセシビリティとユーザビリティの課題に対処することを目的としている。
3Descriptionは質的研究、製品分析、ユーザーテストの組み合わせにより、OpenAIとMediaPipeをベースとした自然言語処理やコンピュータビジョンといったAI技術を統合している。
3DescriptionはWebベースであり、ユーザが所望のモデルを記述し、その後、言語入力とジェスチャー入力を使用してコンポーネントを調整することができる。
AIと新興メディアの時代において、3Descriptionは、より包括的でユーザフレンドリなデザインプロセスに貢献し、より多くの人々が未来の3D世界の構築に参加できるようにするだけでなく、AIとの共同創造における人間のエンゲージメントを高め、テクノロジーへの不適切な降伏を回避し、人間の創造性を維持する努力も行っている。
関連論文リスト
- Generative AI Framework for 3D Object Generation in Augmented Reality [0.0]
この論文は、最先端の生成AIモデルを統合し、拡張現実(AR)環境で3Dオブジェクトをリアルタイムに作成する。
このフレームワークは、ゲーム、教育、小売、インテリアデザインといった業界にまたがる応用を実証している。
重要な貢献は、3Dモデル作成の民主化であり、高度なAIツールを幅広い聴衆に利用できるようにする。
論文 参考訳(メタデータ) (2025-02-21T17:01:48Z) - Coral Model Generation from Single Images for Virtual Reality Applications [22.18438294137604]
本稿では,1つの画像から高精度な3次元サンゴモデルを生成するディープラーニングフレームワークを提案する。
このプロジェクトには、AI生成モデルをインタラクティブな"アートワーク"に変換するための説明可能なAI(XAI)が組み込まれている。
論文 参考訳(メタデータ) (2024-09-04T01:54:20Z) - ChatHuman: Chatting about 3D Humans with Tools [57.29285473727107]
ChatHumanは、特殊なメソッドの機能を統一されたフレームワークに統合する、言語駆動のシステムである。
ChatHumanは、3Dヒューマンタスクに特化したツールの利用、分析、相互作用に熟練したアシスタントとして機能する。
論文 参考訳(メタデータ) (2024-05-07T17:59:31Z) - Choreographing the Digital Canvas: A Machine Learning Approach to Artistic Performance [9.218587190403174]
本稿では,属性記述に基づく芸術演奏のためのデザインツールについて紹介する。
このプラットフォームは、新しい機械学習(ML)モデルとインタラクティブインターフェースを統合して、芸術的な動きを生成、視覚化する。
論文 参考訳(メタデータ) (2024-03-26T01:42:13Z) - 3D-GPT: Procedural 3D Modeling with Large Language Models [47.72968643115063]
命令駆動3Dモデリングのための大規模言語モデル(LLM)を利用するフレームワークである3D-GPTを紹介する。
3D-GPTは、3Dモデリングタスクをアクセス可能なセグメントに分割し、各タスクにアプエージェントを割り当てる。
我々の実証調査では、3D-GPTが解釈し、指示を実行し、信頼性の高い結果を提供するだけでなく、人間デザイナーと効果的に協力することを確認した。
論文 参考訳(メタデータ) (2023-10-19T17:41:48Z) - Digital Modeling for Everyone: Exploring How Novices Approach
Voice-Based 3D Modeling [0.0]
音声に基づく3Dモデリングにおける初級精神モデルについて,22名の被験者を対象に,オズ研究の高忠実度ウィザードを用いて検討した。
我々は音声アシスタントの設計上の意味を結論づける。
例えば、曖昧で不完全で間違ったコマンドを扱うこと、単純で複合的なオブジェクトを形作るための単純なコマンドセットを提供すること、そして3Dオブジェクトを選択するための異なる戦略を提供することである。
論文 参考訳(メタデータ) (2023-07-10T11:03:32Z) - T2TD: Text-3D Generation Model based on Prior Knowledge Guidance [74.32278935880018]
本稿では,3次元生成モデルの性能向上のための先行知識として,関連した形状やテキスト情報を導入した新しいテキスト3D生成モデル(T2TD)を提案する。
提案手法は,3次元モデル生成精度を大幅に向上し,text2shapeデータセット上でSOTA法よりも優れる。
論文 参考訳(メタデータ) (2023-05-25T06:05:52Z) - TEMOS: Generating diverse human motions from textual descriptions [53.85978336198444]
テキスト記述から多種多様な人間の動作を生成するという課題に対処する。
本研究では,人間の動作データを用いた可変オートエンコーダ(VAE)トレーニングを利用したテキスト条件生成モデルTEMOSを提案する。
TEMOSフレームワークは,従来のような骨格に基づくアニメーションと,より表現力のあるSMPLボディモーションの両方を生成可能であることを示す。
論文 参考訳(メタデータ) (2022-04-25T14:53:06Z) - 3D Neural Scene Representations for Visuomotor Control [78.79583457239836]
我々は2次元視覚観測から動的3次元シーンのモデルを純粋に学習する。
学習した表現空間上に構築された動的モデルにより,操作課題に対するビジュモータ制御が可能となる。
論文 参考訳(メタデータ) (2021-07-08T17:49:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。