論文の概要: AI-Powered Augmented Reality for Satellite Assembly, Integration and Test
- arxiv url: http://arxiv.org/abs/2409.18101v1
- Date: Thu, 26 Sep 2024 17:44:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-28 16:26:02.176379
- Title: AI-Powered Augmented Reality for Satellite Assembly, Integration and Test
- Title(参考訳): 衛星組み立て、統合、テストのためのAIによる拡張現実
- Authors: Alvaro Patricio, Joao Valente, Atabak Dehban, Ines Cadilha, Daniel Reis, Rodrigo Ventura,
- Abstract要約: 本稿では,欧州宇宙機関のESAプロジェクト「AI for AR in Satellite AIT」の技術的記述について述べる。
このプロジェクトは、リアルタイムコンピュータビジョンとARシステムを組み合わせて、衛星組み立て中の技術者を支援する。
すべてのAIモデルは70%以上の精度を示し、検出モデルは95%を超える精度で、高いレベルのパフォーマンスと信頼性を示している。
- 参考スコア(独自算出の注目度): 2.5069344340760713
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The integration of Artificial Intelligence (AI) and Augmented Reality (AR) is set to transform satellite Assembly, Integration, and Testing (AIT) processes by enhancing precision, minimizing human error, and improving operational efficiency in cleanroom environments. This paper presents a technical description of the European Space Agency's (ESA) project "AI for AR in Satellite AIT," which combines real-time computer vision and AR systems to assist technicians during satellite assembly. Leveraging Microsoft HoloLens 2 as the AR interface, the system delivers context-aware instructions and real-time feedback, tackling the complexities of object recognition and 6D pose estimation in AIT workflows. All AI models demonstrated over 70% accuracy, with the detection model exceeding 95% accuracy, indicating a high level of performance and reliability. A key contribution of this work lies in the effective use of synthetic data for training AI models in AR applications, addressing the significant challenges of obtaining real-world datasets in highly dynamic satellite environments, as well as the creation of the Segmented Anything Model for Automatic Labelling (SAMAL), which facilitates the automatic annotation of real data, achieving speeds up to 20 times faster than manual human annotation. The findings demonstrate the efficacy of AI-driven AR systems in automating critical satellite assembly tasks, setting a foundation for future innovations in the space industry.
- Abstract(参考訳): 人工知能(AI)と拡張現実(AR)の統合は、精度の向上、ヒューマンエラーの最小化、クリーンルーム環境での運用効率の向上により、衛星組み立て、統合、テスト(AIT)プロセスを変換する。
本稿では,欧州宇宙機関(ESA)の人工衛星組み立てにおける技術者支援のために,リアルタイムコンピュータビジョンとARシステムを組み合わせた「衛星AITにおけるARのためのAI」の技術的記述について述べる。
Microsoft HoloLens 2をARインターフェースとして活用することで、AITワークフローにおけるオブジェクト認識と6Dポーズ推定の複雑さに対処し、コンテキスト対応の命令とリアルタイムフィードバックを提供する。
すべてのAIモデルは70%以上の精度を示し、検出モデルは95%を超える精度で、高いレベルのパフォーマンスと信頼性を示している。
この研究の重要な貢献は、ARアプリケーションにおけるAIモデルのトレーニングに合成データを効果的に利用することであり、高度にダイナミックな衛星環境で現実のデータセットを取得することの重大な課題に対処するとともに、手動の人間のアノテーションよりも最大20倍の速度で、実際のデータのアノテーションの自動アノテーションを容易にするSegmented Anything Model for Automatic Labelling(SAMAL)の作成である。
この結果は、重要な衛星組み立て作業を自動化するAI駆動ARシステムの有効性を示し、宇宙産業における将来のイノベーションの基盤を確立している。
関連論文リスト
- Enhancing Object Detection Accuracy in Autonomous Vehicles Using Synthetic Data [0.8267034114134277]
機械学習モデルの性能は、トレーニングデータセットの性質とサイズに依存する。
正確で信頼性の高い機械学習モデルを構築するためには、高品質、多様性、関連性、代表的トレーニングデータが不可欠である。
十分に設計された合成データは、機械学習アルゴリズムの性能を向上させることができると仮定されている。
論文 参考訳(メタデータ) (2024-11-23T16:38:02Z) - On-Air Deep Learning Integrated Semantic Inference Models for Enhanced Earth Observation Satellite Networks [28.69148416385582]
ドメイン適応型大規模言語モデル(LLM)は、生および処理されたEOデータの統合を可能にするソリューションを提供する。
本研究は,高度EOシステムにおける意味推論と深層学習の徹底的な検討を行う。
データ伝送効率を向上させるために設計されたEO衛星ネットワークにおけるセマンティック通信のための革新的なアーキテクチャを提供する。
論文 参考訳(メタデータ) (2024-09-23T17:42:05Z) - AIvril: AI-Driven RTL Generation With Verification In-The-Loop [0.7831852829409273]
LLM(Large Language Models)は、複雑な自然言語処理タスクを実行できる計算モデルである。
本稿では,RTL対応LLMの精度と信頼性を高めるためのフレームワークであるAIvrilを紹介する。
論文 参考訳(メタデータ) (2024-09-03T15:07:11Z) - ArK: Augmented Reality with Knowledge Interactive Emergent Ability [115.72679420999535]
基礎モデルから新しいドメインへの知識記憶の伝達を学習する無限エージェントを開発する。
私たちのアプローチの核心は、Augmented Reality with Knowledge Inference Interaction (ArK)と呼ばれる新しいメカニズムである。
我々のArKアプローチは,大規模な基礎モデルと組み合わせることで,生成された2D/3Dシーンの品質を大幅に向上することを示す。
論文 参考訳(メタデータ) (2023-05-01T17:57:01Z) - Synthetic-to-Real Domain Adaptation for Action Recognition: A Dataset and Baseline Performances [76.34037366117234]
ロボット制御ジェスチャー(RoCoG-v2)と呼ばれる新しいデータセットを導入する。
データセットは7つのジェスチャークラスの実ビデオと合成ビデオの両方で構成されている。
我々は,最先端の行動認識とドメイン適応アルゴリズムを用いて結果を示す。
論文 参考訳(メタデータ) (2023-03-17T23:23:55Z) - LaMAR: Benchmarking Localization and Mapping for Augmented Reality [80.23361950062302]
異種ARデバイスでキャプチャされたリアルな軌跡とセンサストリームを共登録する,包括的キャプチャとGTパイプラインを備えた新しいベンチマークであるLaMARを紹介する。
私たちは、ヘッドマウントとハンドヘルドARデバイスで記録された多様な大規模シーンのベンチマークデータセットを公開します。
論文 参考訳(メタデータ) (2022-10-19T17:58:17Z) - Deep Learning for Real Time Satellite Pose Estimation on Low Power Edge
TPU [58.720142291102135]
本稿では,ニューラルネットワークアーキテクチャを利用したポーズ推定ソフトウェアを提案する。
我々は、低消費電力の機械学習アクセラレーターが宇宙での人工知能の活用を可能にしていることを示す。
論文 参考訳(メタデータ) (2022-04-07T08:53:18Z) - Autonomous Aerial Robot for High-Speed Search and Intercept Applications [86.72321289033562]
高速物体把握のための完全自律飛行ロボットが提案されている。
追加のサブタスクとして、我々のシステムは、表面に近い極にある気球を自律的にピアスすることができる。
我々のアプローチは、挑戦的な国際競争で検証され、優れた結果が得られました。
論文 参考訳(メタデータ) (2021-12-10T11:49:51Z) - Rethinking Drone-Based Search and Rescue with Aerial Person Detection [79.76669658740902]
航空ドローンの映像の視覚検査は、現在土地捜索救助(SAR)活動に不可欠な部分である。
本稿では,この空中人物検出(APD)タスクを自動化するための新しいディープラーニングアルゴリズムを提案する。
本稿では,Aerial Inspection RetinaNet (AIR) アルゴリズムについて述べる。
論文 参考訳(メタデータ) (2021-11-17T21:48:31Z) - A curated, ontology-based, large-scale knowledge graph of artificial
intelligence tasks and benchmarks [4.04540578484476]
インテリジェンスタスクオントロジーと知識グラフ(ITO)は、人工知能タスク、ベンチマーク結果、パフォーマンスメトリクスに関する包括的なリソースである。
ITOは、人工知能タスク、ベンチマーク結果、パフォーマンスメトリクスに関する、豊富な構造化と手作業によるリソースである。
ITOの目標は、AIタスクと能力のグローバルな状況に関する、正確でネットワークベースの分析を可能にすることだ。
論文 参考訳(メタデータ) (2021-10-04T13:25:53Z) - An Efficient UAV-based Artificial Intelligence Framework for Real-Time
Visual Tasks [33.489573797811474]
アドホックなビジュアルベースのAIアプリケーションを容易に統合できるように、マルチレイヤAI(MLAI)フレームワークを導入します。
特徴とその利点を示すために,オブジェクト検出,目標追跡,ターゲットハンドオーバのための,現代の視覚的深層学習モデルを実装し,評価した。
論文 参考訳(メタデータ) (2020-04-13T18:53:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。