論文の概要: I-nteract 2.0: A Cyber-Physical System to Design 3D Models using Mixed
Reality Technologies and Deep Learning for Additive Manufacturing
- arxiv url: http://arxiv.org/abs/2010.11025v1
- Date: Wed, 21 Oct 2020 14:13:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 23:24:03.806223
- Title: I-nteract 2.0: A Cyber-Physical System to Design 3D Models using Mixed
Reality Technologies and Deep Learning for Additive Manufacturing
- Title(参考訳): I-nteract 2.0:複合現実感技術と深層学習による3次元モデル設計のためのサイバー物理システム
- Authors: Ammar Malik, Hugo Lhachemi, and Robert Shorten
- Abstract要約: I-nteractはサイバー物理システムで、仮想と実の両方のアーティファクトとリアルタイムに対話して、添加物製造のための3Dモデルの設計を可能にする。
本稿では, 立体形状と人工知能の両方を用いて3次元モデルを生成するインタラクションプラットフォームI-nteractの開発において, 新たな進歩を示す。
- 参考スコア(独自算出の注目度): 2.7986973063309875
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: I-nteract is a cyber-physical system that enables real-time interaction with
both virtual and real artifacts to design 3D models for additive manufacturing
by leveraging on mixed reality technologies. This paper presents novel advances
in the development of the interaction platform I-nteract to generate 3D models
using both constructive solid geometry and artificial intelligence. The system
also enables the user to adjust the dimensions of the 3D models with respect to
their physical workspace. The effectiveness of the system is demonstrated by
generating 3D models of furniture (e.g., chairs and tables) and fitting them
into the physical space in a mixed reality environment.
- Abstract(参考訳): i-nteractは、バーチャルアーティファクトとリアルアーティファクトの両方とのリアルタイムインタラクションを可能にし、複合現実技術を活用することで、付加生産のための3dモデルを設計するサイバー物理システムである。
本稿では, 立体形状と人工知能の両方を用いて3次元モデルを生成するインタラクションプラットフォームI-nteractの開発において, 新たな進歩を示す。
このシステムにより、ユーザーは物理的なワークスペースに関して3Dモデルの寸法を調整できる。
システムの有効性は、家具(例えば椅子やテーブル)の3次元モデルを生成し、それらを混合現実環境の物理的空間に適合させることによって実証される。
関連論文リスト
- 3D-VLA: A 3D Vision-Language-Action Generative World Model [68.0388311799959]
最近の視覚言語アクション(VLA)モデルは2D入力に依存しており、3D物理世界の広い領域との統合は欠如している。
本稿では,3次元知覚,推論,行動をシームレスにリンクする新しい基礎モデルのファウンデーションモデルを導入することにより,3D-VLAを提案する。
本実験により,3D-VLAは実環境における推論,マルチモーダル生成,計画能力を大幅に向上することが示された。
論文 参考訳(メタデータ) (2024-03-14T17:58:41Z) - En3D: An Enhanced Generative Model for Sculpting 3D Humans from 2D
Synthetic Data [36.51674664590734]
本研究では,高品質な3次元アバターの小型化を図ったEn3Dを提案する。
従来の3Dデータセットの不足や、視角が不均衡な限られた2Dコレクションと異なり、本研究の目的は、ゼロショットで3D人間を作れる3Dの開発である。
論文 参考訳(メタデータ) (2024-01-02T12:06:31Z) - Pushing the Limits of 3D Shape Generation at Scale [65.24420181727615]
我々は、前例のない次元に拡大することで、3次元形状生成において画期的なブレークスルーを示す。
現在までに最大の3次元形状生成モデルとしてArgus-3Dが確立されている。
論文 参考訳(メタデータ) (2023-06-20T13:01:19Z) - GET3D: A Generative Model of High Quality 3D Textured Shapes Learned
from Images [72.15855070133425]
本稿では,複雑なトポロジ,リッチな幾何学的ディテール,高忠実度テクスチャを備えたExplicit Textured 3Dメッシュを直接生成する生成モデルであるGET3Dを紹介する。
GET3Dは、車、椅子、動物、バイク、人間キャラクターから建物まで、高品質な3Dテクスチャメッシュを生成することができる。
論文 参考訳(メタデータ) (2022-09-22T17:16:19Z) - 3D Neural Scene Representations for Visuomotor Control [78.79583457239836]
我々は2次元視覚観測から動的3次元シーンのモデルを純粋に学習する。
学習した表現空間上に構築された動的モデルにより,操作課題に対するビジュモータ制御が可能となる。
論文 参考訳(メタデータ) (2021-07-08T17:49:37Z) - Growing and Evolving 3D Prints [5.837881923712394]
本稿では, 生物にインスパイアされた発達モデルについて, 生成型ファイリングシステムの基盤として記述する。
従来のシステムとは異なり,本手法では直接3Dプリント可能なオブジェクトを生成することができる。
論文 参考訳(メタデータ) (2021-07-07T01:51:29Z) - Hindsight for Foresight: Unsupervised Structured Dynamics Models from
Physical Interaction [24.72947291987545]
エージェントが世界と対話することを学ぶための鍵となる課題は、オブジェクトの物理的性質を推論することである。
本研究では,ラベルのない3次元点群と画像から直接,ロボットのインタラクションのダイナミクスをモデル化するための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2020-08-02T11:04:49Z) - Towards Realistic 3D Embedding via View Alignment [53.89445873577063]
本稿では,3次元モデルを2次元背景画像に現実的に,かつ自動的に埋め込み,新たな画像を構成する,革新的なビューアライメントGAN(VA-GAN)を提案する。
VA-GANはテクスチャジェネレータとディファレンシャルディスクリミネーターで構成され、相互接続され、エンドツーエンドのトレーニングが可能である。
論文 参考訳(メタデータ) (2020-07-14T14:45:00Z) - ThreeDWorld: A Platform for Interactive Multi-Modal Physical Simulation [75.0278287071591]
ThreeDWorld (TDW) はインタラクティブなマルチモーダル物理シミュレーションのためのプラットフォームである。
TDWは、リッチな3D環境において、高忠実な感覚データのシミュレーションと、移動体エージェントとオブジェクト間の物理的相互作用を可能にする。
我々は、コンピュータビジョン、機械学習、認知科学における新たな研究方向において、TDWによって実現された初期実験を提示する。
論文 参考訳(メタデータ) (2020-07-09T17:33:27Z) - Learning Neural Light Transport [28.9247002210861]
ニューラルネットワークを用いた静的・動的3次元シーンにおける光輸送の学習手法を提案する。
我々のモデルは静的および動的シーンのフォトリアリスティックなレンダリングを生成することができる。
論文 参考訳(メタデータ) (2020-06-05T13:26:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。