論文の概要: I-nteract 2.0: A Cyber-Physical System to Design 3D Models using Mixed
Reality Technologies and Deep Learning for Additive Manufacturing
- arxiv url: http://arxiv.org/abs/2010.11025v1
- Date: Wed, 21 Oct 2020 14:13:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 23:24:03.806223
- Title: I-nteract 2.0: A Cyber-Physical System to Design 3D Models using Mixed
Reality Technologies and Deep Learning for Additive Manufacturing
- Title(参考訳): I-nteract 2.0:複合現実感技術と深層学習による3次元モデル設計のためのサイバー物理システム
- Authors: Ammar Malik, Hugo Lhachemi, and Robert Shorten
- Abstract要約: I-nteractはサイバー物理システムで、仮想と実の両方のアーティファクトとリアルタイムに対話して、添加物製造のための3Dモデルの設計を可能にする。
本稿では, 立体形状と人工知能の両方を用いて3次元モデルを生成するインタラクションプラットフォームI-nteractの開発において, 新たな進歩を示す。
- 参考スコア(独自算出の注目度): 2.7986973063309875
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: I-nteract is a cyber-physical system that enables real-time interaction with
both virtual and real artifacts to design 3D models for additive manufacturing
by leveraging on mixed reality technologies. This paper presents novel advances
in the development of the interaction platform I-nteract to generate 3D models
using both constructive solid geometry and artificial intelligence. The system
also enables the user to adjust the dimensions of the 3D models with respect to
their physical workspace. The effectiveness of the system is demonstrated by
generating 3D models of furniture (e.g., chairs and tables) and fitting them
into the physical space in a mixed reality environment.
- Abstract(参考訳): i-nteractは、バーチャルアーティファクトとリアルアーティファクトの両方とのリアルタイムインタラクションを可能にし、複合現実技術を活用することで、付加生産のための3dモデルを設計するサイバー物理システムである。
本稿では, 立体形状と人工知能の両方を用いて3次元モデルを生成するインタラクションプラットフォームI-nteractの開発において, 新たな進歩を示す。
このシステムにより、ユーザーは物理的なワークスペースに関して3Dモデルの寸法を調整できる。
システムの有効性は、家具(例えば椅子やテーブル)の3次元モデルを生成し、それらを混合現実環境の物理的空間に適合させることによって実証される。
関連論文リスト
- PhysPart: Physically Plausible Part Completion for Interactable Objects [28.91080122885566]
我々は、相互作用可能なオブジェクトに対する物理的に妥当な部分補完の問題に取り組む。
幾何学的条件付けを利用した拡散型部分生成モデルを提案する。
また、3Dプリンティング、ロボット操作、シーケンシャル部分生成にも応用しています。
論文 参考訳(メタデータ) (2024-08-25T04:56:09Z) - Haptic Repurposing with GenAI [5.424247121310253]
Mixed Realityは、デジタル世界と物理的な世界を融合して、没入型人間とコンピュータのインタラクションを作ることを目指している。
本稿では,Haptic Repurposing with GenAIを紹介し,任意の物理オブジェクトをAI生成仮想アセットの適応型触覚インターフェースに変換することによってMRインタラクションを強化する革新的なアプローチを提案する。
論文 参考訳(メタデータ) (2024-06-11T13:06:28Z) - Atlas3D: Physically Constrained Self-Supporting Text-to-3D for Simulation and Fabrication [50.541882834405946]
我々は,テキストから3Dへの自動的実装であるAtlas3Dを紹介する。
提案手法は,新しい微分可能シミュレーションに基づく損失関数と,物理的にインスパイアされた正規化を組み合わせたものである。
我々は、Atlas3Dの有効性を広範囲な生成タスクを通して検証し、シミュレーションと実環境の両方で結果の3Dモデルを検証する。
論文 参考訳(メタデータ) (2024-05-28T18:33:18Z) - Shaping Realities: Enhancing 3D Generative AI with Fabrication Constraints [36.65470465480772]
ジェネレーティブAIツールは、ユーザーがテキストやイメージを入力として新しいモデルを操作したり作成したりできる3Dモデリングにおいて、より普及しつつある。
これらの手法は, 3Dモデルの美的品質に焦点を合わせ, ユーザが提供するプロンプトに類似するように仕上げる。
製造を意図した3Dモデルを作成する場合、デザイナーは3Dモデルの美的特性を、その物理的特性とトレードオフする必要がある。
論文 参考訳(メタデータ) (2024-04-15T21:22:57Z) - 3D-VLA: A 3D Vision-Language-Action Generative World Model [68.0388311799959]
最近の視覚言語アクション(VLA)モデルは2D入力に依存しており、3D物理世界の広い領域との統合は欠如している。
本稿では,3次元知覚,推論,行動をシームレスにリンクする新しい基礎モデルのファウンデーションモデルを導入することにより,3D-VLAを提案する。
本実験により,3D-VLAは実環境における推論,マルチモーダル生成,計画能力を大幅に向上することが示された。
論文 参考訳(メタデータ) (2024-03-14T17:58:41Z) - En3D: An Enhanced Generative Model for Sculpting 3D Humans from 2D
Synthetic Data [36.51674664590734]
本研究では,高品質な3次元アバターの小型化を図ったEn3Dを提案する。
従来の3Dデータセットの不足や、視角が不均衡な限られた2Dコレクションと異なり、本研究の目的は、ゼロショットで3D人間を作れる3Dの開発である。
論文 参考訳(メタデータ) (2024-01-02T12:06:31Z) - Pushing the Limits of 3D Shape Generation at Scale [65.24420181727615]
我々は、前例のない次元に拡大することで、3次元形状生成において画期的なブレークスルーを示す。
現在までに最大の3次元形状生成モデルとしてArgus-3Dが確立されている。
論文 参考訳(メタデータ) (2023-06-20T13:01:19Z) - GET3D: A Generative Model of High Quality 3D Textured Shapes Learned
from Images [72.15855070133425]
本稿では,複雑なトポロジ,リッチな幾何学的ディテール,高忠実度テクスチャを備えたExplicit Textured 3Dメッシュを直接生成する生成モデルであるGET3Dを紹介する。
GET3Dは、車、椅子、動物、バイク、人間キャラクターから建物まで、高品質な3Dテクスチャメッシュを生成することができる。
論文 参考訳(メタデータ) (2022-09-22T17:16:19Z) - 3D Neural Scene Representations for Visuomotor Control [78.79583457239836]
我々は2次元視覚観測から動的3次元シーンのモデルを純粋に学習する。
学習した表現空間上に構築された動的モデルにより,操作課題に対するビジュモータ制御が可能となる。
論文 参考訳(メタデータ) (2021-07-08T17:49:37Z) - ThreeDWorld: A Platform for Interactive Multi-Modal Physical Simulation [75.0278287071591]
ThreeDWorld (TDW) はインタラクティブなマルチモーダル物理シミュレーションのためのプラットフォームである。
TDWは、リッチな3D環境において、高忠実な感覚データのシミュレーションと、移動体エージェントとオブジェクト間の物理的相互作用を可能にする。
我々は、コンピュータビジョン、機械学習、認知科学における新たな研究方向において、TDWによって実現された初期実験を提示する。
論文 参考訳(メタデータ) (2020-07-09T17:33:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。