論文の概要: The active visual sensing methods for robotic welding: review, tutorial and prospect
- arxiv url: http://arxiv.org/abs/2405.00685v1
- Date: Wed, 6 Mar 2024 10:48:34 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-01 11:19:45.912937
- Title: The active visual sensing methods for robotic welding: review, tutorial and prospect
- Title(参考訳): ロボット溶接のアクティブな視覚センシング手法:レビュー,チュートリアル,展望
- Authors: ZhenZhou Wang,
- Abstract要約: 視覚センサーシステムは、インテリジェントで自律的な溶接を実現するための溶接ロボットの最も重要な部分の1つである。
本稿では,ロボット溶接におけるアクティブな視覚センシング手法について概説する。
それらの用途により, 現状のアクティブな視覚センシング手法を, シームトラッキング, 溶接ビーズ欠陥検出, 3次元溶接プール形状計測, 溶接経路計画の4つのカテゴリに分けた。
- 参考スコア(独自算出の注目度): 10.60608983034705
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The visual sensing system is one of the most important parts of the welding robots to realize intelligent and autonomous welding. The active visual sensing methods have been widely adopted in robotic welding because of their higher accuracies compared to the passive visual sensing methods. In this paper, we give a comprehensive review of the active visual sensing methods for robotic welding. According to their uses, we divide the state-of-the-art active visual sensing methods into four categories: seam tracking, weld bead defect detection, 3D weld pool geometry measurement and welding path planning. Firstly, we review the principles of these active visual sensing methods. Then, we give a tutorial of the 3D calibration methods for the active visual sensing systems used in intelligent welding robots to fill the gaps in the related fields. At last, we compare the reviewed active visual sensing methods and give the prospects based on their advantages and disadvantages.
- Abstract(参考訳): 視覚センサーシステムは、インテリジェントで自律的な溶接を実現するための溶接ロボットの最も重要な部分の1つである。
アクティブな視覚センシング法は、受動的視覚センシング法と比較して高い精度のため、ロボット溶接において広く採用されている。
本稿では,ロボット溶接におけるアクティブな視覚センシング手法について概説する。
それらの用途により, 現状のアクティブな視覚センシング手法を, シームトラッキング, 溶接ビーズ欠陥検出, 3次元溶接プール形状計測, 溶接経路計画の4つのカテゴリに分けた。
まず,これらのアクティブな視覚センシング手法の原理を概観する。
そこで我々は,知的溶接ロボットにおけるアクティブな視覚センシングシステムの3Dキャリブレーション手法のチュートリアルを行い,関連分野のギャップを埋める。
最終的に、レビューしたアクティブな視覚センシング手法を比較し、それらの利点とデメリットに基づいて、今後の展望を示す。
関連論文リスト
- Object and Contact Point Tracking in Demonstrations Using 3D Gaussian Splatting [17.03927416536173]
本稿では,インタラクティブ・イミテーション・ラーニング(Interactive Imitation Learning, IIL)の手法を提案する。
このアプローチは現在のIILシステムを拡張し、ロボットにオブジェクトとの対話方法、特にドアや引き出しのような複雑な操作方法に関する詳細な知識を提供する。
論文 参考訳(メタデータ) (2024-11-05T23:28:57Z) - Neural feels with neural fields: Visuo-tactile perception for in-hand
manipulation [57.60490773016364]
マルチフィンガーハンドの視覚と触覚を組み合わせることで,手動操作時の物体の姿勢と形状を推定する。
提案手法であるNeuralFeelsは,ニューラルネットワークをオンラインで学習することでオブジェクトの形状を符号化し,ポーズグラフ問題を最適化して共同で追跡する。
私たちの結果は、タッチが少なくとも、洗練され、そして最も最良のものは、手動操作中に視覚的推定を曖昧にすることを示しています。
論文 参考訳(メタデータ) (2023-12-20T22:36:37Z) - Human-oriented Representation Learning for Robotic Manipulation [64.59499047836637]
人間は本質的に、操作作業において環境を効率的に探索し、相互作用することを可能にする、一般化可能な視覚表現を持っている。
我々は、このアイデアを、事前訓練された視覚エンコーダの上に、人間指向のマルチタスク微調整のレンズを通してフォーマル化する。
我々のタスクフュージョンデコーダは、下流操作ポリシー学習のための最先端の3つのビジュアルエンコーダの表現を一貫して改善する。
論文 参考訳(メタデータ) (2023-10-04T17:59:38Z) - ScanERU: Interactive 3D Visual Grounding based on Embodied Reference
Understanding [67.21613160846299]
Embodied Reference Understanding (ERU) はこの懸念に対して最初に設計されている。
ScanERUと呼ばれる新しいデータセットは、このアイデアの有効性を評価するために構築されている。
論文 参考訳(メタデータ) (2023-03-23T11:36:14Z) - Tactile-Filter: Interactive Tactile Perception for Part Mating [54.46221808805662]
人間は触覚と触覚に頼っている。
視覚ベースの触覚センサーは、様々なロボット認識や制御タスクに広く利用されている。
本稿では,視覚に基づく触覚センサを用いた対話的知覚手法を提案する。
論文 参考訳(メタデータ) (2023-03-10T16:27:37Z) - See, Hear, and Feel: Smart Sensory Fusion for Robotic Manipulation [49.925499720323806]
視覚的、聴覚的、触覚的知覚が、ロボットが複雑な操作タスクを解くのにどのように役立つかを研究する。
私たちは、カメラで見たり、コンタクトマイクで聞いたり、視覚ベースの触覚センサーで感じるロボットシステムを構築しました。
論文 参考訳(メタデータ) (2022-12-07T18:55:53Z) - Visual-Tactile Multimodality for Following Deformable Linear Objects
Using Reinforcement Learning [15.758583731036007]
本稿では,視覚と触覚入力を併用して変形可能な線形物体を追従するタスクを完遂する問題について検討する。
我々は,異なる感覚モーダルを用いた強化学習エージェントを作成し,その動作をどのように促進するかを検討する。
実験の結果,視覚入力と触覚入力の両方を使用することで,最大92%の症例で作業が完了することがわかった。
論文 参考訳(メタデータ) (2022-03-31T21:59:08Z) - TANDEM: Learning Joint Exploration and Decision Making with Tactile
Sensors [15.418884994244996]
我々は,触覚探索の指導プロセスとタスク関連意思決定との相互作用に焦点を当てた。
意思決定と協調して効率的な探索戦略を学習するアーキテクチャであるTANDEMを提案する。
本手法は,触覚フィードバックのみに基づいて,触覚センサを備えたロボットが既知の集合から物体を探索・識別する必要がある触覚物体認識タスクにおいて実証する。
論文 参考訳(メタデータ) (2022-03-01T23:55:09Z) - Learning Dexterous Grasping with Object-Centric Visual Affordances [86.49357517864937]
控えめなロボットハンドは、機敏さと人間のような形態をアピールしています。
本稿では,厳密な把握を学習するためのアプローチを提案する。
私たちのキーとなるアイデアは、オブジェクト中心の視覚的余裕モデルを深い強化学習ループに埋め込むことです。
論文 参考訳(メタデータ) (2020-09-03T04:00:40Z) - Active Perception and Representation for Robotic Manipulation [0.8315801422499861]
本稿では、能動的知覚の利点を利用して操作タスクを遂行するフレームワークを提案する。
我々のエージェントは、視点変化を利用してオブジェクトをローカライズし、状態表現を自己監督的に学習し、ゴール指向のアクションを実行する。
バニラ深度Q-ラーニングアルゴリズムと比較して、我々のモデルは少なくとも4倍のサンプリング効率がある。
論文 参考訳(メタデータ) (2020-03-15T01:43:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。