論文の概要: AI Assisted AR Assembly: Object Recognition and Computer Vision for Augmented Reality Assisted Assembly
- arxiv url: http://arxiv.org/abs/2511.05394v1
- Date: Fri, 07 Nov 2025 16:20:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-10 21:00:44.832789
- Title: AI Assisted AR Assembly: Object Recognition and Computer Vision for Augmented Reality Assisted Assembly
- Title(参考訳): AI Assisted AR Assembly:拡張現実支援アセンブリのためのオブジェクト認識とコンピュータビジョン
- Authors: Alexander Htet Kyaw, Haotian Ma, Sasa Zivkovic, Jenny Sabin,
- Abstract要約: ディープラーニングに基づくオブジェクト認識を用いたAI支援拡張現実アセンブリワークフローを提案する。
各組立ステップに対して、システムは物理空間内の対応するコンポーネントの周りにバウンディングボックスを表示し、コンポーネントがどこに置かれるべきかを示す。
- 参考スコア(独自算出の注目度): 40.836596733334254
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present an AI-assisted Augmented Reality assembly workflow that uses deep learning-based object recognition to identify different assembly components and display step-by-step instructions. For each assembly step, the system displays a bounding box around the corresponding components in the physical space, and where the component should be placed. By connecting assembly instructions with the real-time location of relevant components, the system eliminates the need for manual searching, sorting, or labeling of different components before each assembly. To demonstrate the feasibility of using object recognition for AR-assisted assembly, we highlight a case study involving the assembly of LEGO sculptures.
- Abstract(参考訳): ディープラーニングに基づくオブジェクト認識を用いて、異なるアセンブリコンポーネントを識別し、ステップバイステップの指示を表示するAI支援拡張現実アセンブリワークフローを提案する。
各組立ステップに対して、システムは物理空間内の対応するコンポーネントの周りにバウンディングボックスを表示し、コンポーネントがどこに置かれるべきかを示す。
アセンブリ命令と関連するコンポーネントのリアルタイムな位置を接続することにより、各アセンブリの前に異なるコンポーネントを手動で検索、ソート、ラベル付けする必要がなくなる。
オブジェクト認識によるAR支援アセンブリの実現可能性を示すために,LEGO彫刻の組み立てに関するケーススタディを紹介する。
関連論文リスト
- Manual2Skill++: Connector-Aware General Robotic Assembly from Instruction Manuals via Vision-Language Models [26.61083683414806]
我々は、接続を、コネクタタイプ、仕様、量、配置場所を含む、アセンブリ表現における第一級プリミティブと見なしている。
我々は,アセンブリマニュアルから構造化接続情報を自動的に抽出する視覚言語フレームワークであるManual2Skill++を提案する。
大規模な視覚言語モデルでは、記号図やアノテーションをマニュアルで解析してこれらのグラフをインスタンス化し、人間設計の命令に埋め込まれた豊富な接続知識を活用する。
論文 参考訳(メタデータ) (2025-10-18T04:13:26Z) - EgoPrompt: Prompt Learning for Egocentric Action Recognition [49.12318087940015]
EgoPromptは、エゴセントリックな行動認識タスクを実行するための、素早い学習ベースのフレームワークである。
EgoPromptは、内部データセット、クロスデータセット、ベース・ツー・ノーベルの一般化ベンチマークで最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2025-08-05T09:47:07Z) - Manual-PA: Learning 3D Part Assembly from Instruction Diagrams [54.555154845137906]
本稿では,手動誘導3次元部品組立フレームワークである手動PAについて述べる。
以上の結果から, 部品の図面と順序を併用すると, 組立性能が向上し, 組立性能が向上することが示唆された。
論文 参考訳(メタデータ) (2024-11-27T03:10:29Z) - IKEA-Manual: Seeing Shape Assembly Step by Step [26.79113677450921]
組立マニュアルと組み合わせた102個のIKEAオブジェクトからなるデータセットであるIKEA-Manualを提案する。
IKEAオブジェクトやアセンブリマニュアルには,組み立て部品,組み立て計画,手動セグメンテーション,3Dパーツと視覚マニュアル間の2D-3D対応など,詳細なアノテーションが提供されている。
論文 参考訳(メタデータ) (2023-02-03T17:32:22Z) - Object Detection for Understanding Assembly Instruction Using
Context-aware Data Augmentation and Cascade Mask R-CNN [4.3310896118860445]
音声バブルセグメンテーションのための文脈認識型データ拡張手法を開発した。
また,深層学習は,命令中の重要なオブジェクトを検出することで,アセンブリ命令の理解に有用であることが示された。
論文 参考訳(メタデータ) (2021-01-07T12:10:27Z) - SAFCAR: Structured Attention Fusion for Compositional Action Recognition [47.43959215267547]
我々は,物体検出からの情報を組み合わせた新しい自己注意機構(Structured Attention Fusion, SAF)を開発し, 検証する。
提案手法は, 従来の技術システムよりも, 新規な動詞合成を効果的に認識するものである。
我々は,Something-V2データセットの課題であるSomesing-Elseタスクに対するアプローチを検証する。
論文 参考訳(メタデータ) (2020-12-03T17:45:01Z) - Fine-grained activity recognition for assembly videos [31.468641678626696]
本研究は, 組立動作認識の課題に対処するために, きめ細かいアクティビティ認識設定を拡張した。
本研究では,空間集合の特別な構造を活かした観察特徴とともに,観測シーケンスからアセンブリ動作を認識する汎用的な手法を開発した。
論文 参考訳(メタデータ) (2020-12-02T18:38:17Z) - Disassembling Object Representations without Labels [75.2215716328001]
本研究では,オブジェクト表現を分解する新しい表現学習タスクについて検討する。
分解は、学習した表現におけるカテゴリ固有のモジュラリティを可能にする。
我々は、非教師なし分解オブジェクト表現(UDOR)という、非教師なしの非教師なしアプローチを提案する。
論文 参考訳(メタデータ) (2020-04-03T08:23:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。