論文の概要: Multi-3D-Models Registration-Based Augmented Reality (AR) Instructions
for Assembly
- arxiv url: http://arxiv.org/abs/2311.16337v2
- Date: Wed, 29 Nov 2023 03:24:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-30 12:17:13.065732
- Title: Multi-3D-Models Registration-Based Augmented Reality (AR) Instructions
for Assembly
- Title(参考訳): アセンブリのための多次元モデル登録ベース拡張現実(AR)教育
- Authors: Seda Tuzun Canadinc and Wei Yan
- Abstract要約: BRICKxAR (M3D)は、物理アセンブリモデルの組み立て位置でレンダリングされた3Dアセンブリ部品を可視化する。
BRICKxAR (M3D) はディープラーニングで訓練された3Dモデルの登録を利用する。
- 参考スコア(独自算出の注目度): 7.716174636585781
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper introduces a novel, markerless, step-by-step, in-situ 3D Augmented
Reality (AR) instruction method and its application - BRICKxAR (Multi 3D
Models/M3D) - for small parts assembly. BRICKxAR (M3D) realistically visualizes
rendered 3D assembly parts at the assembly location of the physical assembly
model (Figure 1). The user controls the assembly process through a user
interface. BRICKxAR (M3D) utilizes deep learning-trained 3D model-based
registration. Object recognition and tracking become challenging as the
assembly model updates at each step. Additionally, not every part in a 3D
assembly may be visible to the camera during the assembly. BRICKxAR (M3D)
combines multiple assembly phases with a step count to address these
challenges. Thus, using fewer phases simplifies the complex assembly process
while step count facilitates accurate object recognition and precise
visualization of each step. A testing and heuristic evaluation of the BRICKxAR
(M3D) prototype and qualitative analysis were conducted with users and experts
in visualization and human-computer interaction. Providing robust 3D AR
instructions and allowing the handling of the assembly model, BRICKxAR (M3D)
has the potential to be used at different scales ranging from manufacturing
assembly to construction.
- Abstract(参考訳): 本稿では,新しい,マーカーレス,ステップバイステップ,イン・バイ・ステップの3d拡張現実(ar)インストラクション法と,その応用例である brickxar (multi 3d models/m3d) について紹介する。
BRICKxAR(M3D)は物理組立モデルの組立位置でレンダリングされた3次元組立部品を現実的に可視化する(図1)。
ユーザはユーザインターフェースを介してアセンブリプロセスを制御する。
BRICKxAR (M3D) はディープラーニングで訓練された3Dモデルの登録を利用する。
アセンブリモデルが各ステップで更新されるにつれて、オブジェクト認識とトラッキングは困難になる。
さらに、3Dアセンブリのすべての部分が、アセンブリ中にカメラに表示されるわけではない。
BRICKxAR(M3D)は、複数のアセンブリフェーズとステップカウントを組み合わせてこれらの課題に対処する。
したがって、より少ない位相を用いると複雑なアセンブリプロセスが簡単になり、ステップカウントは各ステップの正確なオブジェクト認識と正確な視覚化が容易になる。
brickxar (m3d) プロトタイプのテストとヒューリスティックな評価と質的分析は、ユーザと人間とコンピュータの相互作用に関する専門家によって行われた。
堅牢な3D AR命令を提供し、組立モデルのハンドリングを可能にするため、BRICKxAR(M3D)は製造組立から建設まで様々な規模で使用される可能性がある。
関連論文リスト
- Neural Assembler: Learning to Generate Fine-Grained Robotic Assembly Instructions from Multi-View Images [24.10809783713574]
本稿では, 構造的3次元モデルのマルチビュー画像を, 組み立て命令の詳細なシーケンスに変換するという, 新たな課題を紹介する。
本稿では,ニューラルアセンブラ(Neural Assembler)と呼ばれるエンドツーエンドモデルを提案する。
論文 参考訳(メタデータ) (2024-04-25T08:53:23Z) - Reconstructing Hand-Held Objects in 3D [53.277402172488735]
本稿では,大規模言語/ビジョンモデルと3次元オブジェクトデータセットの最近のブレークスルーに基づくハンドヘルドオブジェクト再構築のパラダイムを提案する。
我々は、GPT-4(V)を用いて、画像中のオブジェクトにマッチする3次元オブジェクトモデルを検索し、そのモデルをネットワーク推論幾何に整合させる。
実験により、MCC-HOは実験室およびインターネットデータセット上で最先端のパフォーマンスを達成することが示された。
論文 参考訳(メタデータ) (2024-04-09T17:55:41Z) - ComboVerse: Compositional 3D Assets Creation Using Spatially-Aware Diffusion Guidance [76.7746870349809]
複雑な構成で高品質な3Dアセットを生成する3D生成フレームワークであるComboVerseについて,複数のモデルを組み合わせることを学習して紹介する。
提案手法は,標準スコア蒸留法と比較して,物体の空間的アライメントを重視している。
論文 参考訳(メタデータ) (2024-03-19T03:39:43Z) - Weakly Supervised Monocular 3D Detection with a Single-View Image [58.57978772009438]
モノクロ3D検出は、単一視点画像からの正確な3Dオブジェクトのローカライゼーションを目的としている。
SKD-WM3Dは弱い教師付き単分子3D検出フレームワークである。
我々は,SKD-WM3Dが最先端技術を超え,多くの完全教師付き手法と同等であることを示した。
論文 参考訳(メタデータ) (2024-02-29T13:26:47Z) - 3D-GPT: Procedural 3D Modeling with Large Language Models [47.72968643115063]
命令駆動3Dモデリングのための大規模言語モデル(LLM)を利用するフレームワークである3D-GPTを紹介する。
3D-GPTは、3Dモデリングタスクをアクセス可能なセグメントに分割し、各タスクにアプエージェントを割り当てる。
我々の実証調査では、3D-GPTが解釈し、指示を実行し、信頼性の高い結果を提供するだけでなく、人間デザイナーと効果的に協力することを確認した。
論文 参考訳(メタデータ) (2023-10-19T17:41:48Z) - Score-PA: Score-based 3D Part Assembly [6.25037277839849]
Score-based 3D Part Assembly framework (Score-PA) を導入する。
スコアベースのメソッドは、推論段階では通常時間がかかります。
本稿では,FPC(Fast Predictor-Corrector Sampler)と呼ばれる新しいアルゴリズムを導入し,サンプリングプロセスを高速化する。
論文 参考訳(メタデータ) (2023-09-08T09:10:03Z) - Multiview Compressive Coding for 3D Reconstruction [77.95706553743626]
単一オブジェクトの3Dポイントやシーン全体で動作するシンプルなフレームワークを紹介します。
我々のモデルであるMultiview Compressive Codingは、入力の外観と形状を圧縮して3次元構造を予測する。
論文 参考訳(メタデータ) (2023-01-19T18:59:52Z) - Translating a Visual LEGO Manual to a Machine-Executable Plan [26.0127179598152]
本研究では,人間設計者が作成したイメージベース・ステップ・バイ・ステップ・アセンブリ・マニュアルを機械解釈可能な命令に変換する問題について検討する。
本稿では,手動画像から組立ステップを再構築する新しい学習ベースフレームワークMEPNetを提案する。
論文 参考訳(メタデータ) (2022-07-25T23:35:46Z) - Learning 3D Part Assembly from a Single Image [20.175502864488493]
そこで本研究では,新たな問題として,学習ベースのソリューションとともに,シングルイメージの3Dパーツアセンブリを導入する。
本報告では, 家具組立において, 部品の完全な集合と, 組み立て物全体を描いた一枚の画像から, 家具組立の設定について検討する。
論文 参考訳(メタデータ) (2020-03-21T21:19:28Z) - Monocular Real-time Hand Shape and Motion Capture using Multi-modal Data [77.34069717612493]
本稿では,100fpsの単眼手形状とポーズ推定の新たな手法を提案する。
これは、利用可能なハンドトレーニングデータのソースをすべて活用できるように設計された、新しい学習ベースのアーキテクチャによって実現されている。
3次元手関節検出モジュールと逆キネマティクスモジュールを備えており、3次元手関節位置だけでなく、1つのフィードフォワードパスでそれらを関節回転にマッピングする。
論文 参考訳(メタデータ) (2020-03-21T03:51:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。