論文の概要: AI-driven visual monitoring of industrial assembly tasks
- arxiv url: http://arxiv.org/abs/2506.15285v1
- Date: Wed, 18 Jun 2025 09:08:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-19 19:35:51.610675
- Title: AI-driven visual monitoring of industrial assembly tasks
- Title(参考訳): AIによる産業組み立て作業の視覚的モニタリング
- Authors: Mattia Nardon, Stefano Messelodi, Antonio Granata, Fabio Poiesi, Alberto Danese, Davide Boscaini,
- Abstract要約: ViMATは、アセンブリタスクをリアルタイムで視覚的に監視するための、AI駆動の新しいシステムである。
観測されたアセンブリの状態と以前のタスク知識に基づいて、最も可能性が高いアクションを推測する。
レゴ部品の交換と水圧プレス金型の再構成を含む2つの組立作業におけるViMATの有効性を検証した。
- 参考スコア(独自算出の注目度): 5.127749035113618
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Visual monitoring of industrial assembly tasks is critical for preventing equipment damage due to procedural errors and ensuring worker safety. Although commercial solutions exist, they typically require rigid workspace setups or the application of visual markers to simplify the problem. We introduce ViMAT, a novel AI-driven system for real-time visual monitoring of assembly tasks that operates without these constraints. ViMAT combines a perception module that extracts visual observations from multi-view video streams with a reasoning module that infers the most likely action being performed based on the observed assembly state and prior task knowledge. We validate ViMAT on two assembly tasks, involving the replacement of LEGO components and the reconfiguration of hydraulic press molds, demonstrating its effectiveness through quantitative and qualitative analysis in challenging real-world scenarios characterized by partial and uncertain visual observations. Project page: https://tev-fbk.github.io/ViMAT
- Abstract(参考訳): 産業組み立て作業の視覚的モニタリングは、手続き的エラーによる機器損傷の防止と作業者の安全確保に不可欠である。
商用ソリューションは存在するが、それらは通常、問題を単純化するために厳密なワークスペースの設定や視覚マーカーの適用を必要とする。
我々は,これらの制約なしに動作するアセンブリタスクをリアルタイムに視覚的に監視する,AIによる新しいシステムであるViMATを紹介する。
ViMATは、多視点ビデオストリームから視覚的観察を抽出する知覚モジュールと、観察されたアセンブリ状態と先行タスク知識に基づいて実行される最も可能性の高いアクションを推測する推論モジュールを結合する。
レゴ部品の交換と水圧プレス金型の再構成を含む2つの組立作業におけるViMATの有効性を検証し, 部分的かつ不確実な視覚観察を特徴とする実世界のシナリオにおいて, 定量的かつ定性的な分析により検証した。
プロジェクトページ: https://tev-fbk.github.io/ViMAT
関連論文リスト
- Subtask-Aware Visual Reward Learning from Segmented Demonstrations [97.80917991633248]
本稿では,新しい報酬学習フレームワークであるReward Learning from Demonstration with Demonstrationsを紹介する。
我々は,映像セグメントとそれに対応するサブタスクに条件付けされた高密度報酬関数を訓練し,地道報酬信号との整合性を確保する。
実験の結果,REDSはメタワールドにおける複雑なロボット操作タスクのベースライン手法よりも優れていた。
論文 参考訳(メタデータ) (2025-02-28T01:25:37Z) - A Multimodal Dataset for Enhancing Industrial Task Monitoring and Engagement Prediction [5.73110247142357]
現実的なアセンブリと分解タスクをキャプチャする新しいデータセットを提案する。
データセットは、22セッションから収集されたマルチビューRGB、深さ、慣性測定ユニット(IMU)データを含み、未トリミングビデオの290分に相当する。
提案手法は, 動的産業環境におけるオペレータのパフォーマンス監視のための堅牢なソリューションとして, エンゲージメント状態の認識精度を向上させる。
論文 参考訳(メタデータ) (2025-01-10T12:57:33Z) - Code-as-Monitor: Constraint-aware Visual Programming for Reactive and Proactive Robotic Failure Detection [56.66677293607114]
オープンセットのリアクティブかつアクティブな障害検出のためのCode-as-Monitor(CaM)を提案する。
モニタリングの精度と効率を高めるために,制約関連エンティティを抽象化する制約要素を導入する。
実験により、CaMは28.7%高い成功率を達成し、厳しい乱れの下で実行時間を31.8%短縮することが示された。
論文 参考訳(メタデータ) (2024-12-05T18:58:27Z) - VipAct: Visual-Perception Enhancement via Specialized VLM Agent Collaboration and Tool-use [74.39058448757645]
視覚言語モデル(VLM)を強化するエージェントフレームワークであるVipActを提案する。
VipActは、タスク要求の分析、計画、調整を管理するオーケストレータエージェントと、特定のタスクを処理する専門エージェントで構成される。
様々な視覚認知タスクを特徴とするベンチマーク上でのVipActの評価を行い,実験結果から大幅な性能向上が得られた。
論文 参考訳(メタデータ) (2024-10-21T18:10:26Z) - Learning Run-time Safety Monitors for Machine Learning Components [8.022333445774382]
本稿では、劣化データセットと機械学習を用いて、機械学習コンポーネントの安全モニタを作成するプロセスを紹介する。
作成した安全モニタは、MLコンポーネントと並行してASにデプロイされ、モデル出力に関連する安全リスクの予測を提供する。
論文 参考訳(メタデータ) (2024-06-23T21:25:06Z) - Deep Learning Models for Visual Inspection on Automotive Assembling Line [2.594420805049218]
本稿では,深層学習を用いた視覚検査支援手法を提案する。
提案手法は、実際の自動車組立ラインにおける4つの概念実証によって説明される。
論文 参考訳(メタデータ) (2020-07-02T20:00:45Z) - Goal-Conditioned End-to-End Visuomotor Control for Versatile Skill
Primitives [89.34229413345541]
本稿では,制御器とその条件をエンドツーエンドに学習することで,落とし穴を回避する条件付け手法を提案する。
本モデルでは,ロボットの動きのダイナミックな画像表現に基づいて,複雑な動作シーケンスを予測する。
代表的MPCおよびILベースラインに対するタスク成功の大幅な改善を報告した。
論文 参考訳(メタデータ) (2020-03-19T15:04:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。