論文の概要: A novel integrated industrial approach with cobots in the age of
industry 4.0 through conversational interaction and computer vision
- arxiv url: http://arxiv.org/abs/2402.10553v1
- Date: Fri, 16 Feb 2024 10:35:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-19 16:52:14.605018
- Title: A novel integrated industrial approach with cobots in the age of
industry 4.0 through conversational interaction and computer vision
- Title(参考訳): 対話的インタラクションとコンピュータビジョンによる産業4.0時代のコボットによる新しい産業統合アプローチ
- Authors: Andrea Pazienza and Nicola Macchiarulo and Felice Vitulano and Antonio
Fiorentini and Marco Cammisa and Leonardo Rigutini and Ernesto Di Iorio and
Achille Globo and Antonio Trevisi
- Abstract要約: 労働者を置き換えるロボットから、役に立つ同僚として働くロボットまで、ロボット自動化の分野は新しいトレンドを経験している。
労働者を置き換えるロボットから、役に立つ同僚として働くロボットまで、ロボット自動化の分野は新しいトレンドを経験している。
- 参考スコア(独自算出の注目度): 1.2848575793946582
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: From robots that replace workers to robots that serve as helpful colleagues,
the field of robotic automation is experiencing a new trend that represents a
huge challenge for component manufacturers. The contribution starts from an
innovative vision that sees an ever closer collaboration between Cobot, able to
do a specific physical job with precision, the AI world, able to analyze
information and support the decision-making process, and the man able to have a
strategic vision of the future.
- Abstract(参考訳): 労働者を置き換えるロボットから、役に立つ同僚として働くロボットまで、ロボット自動化の分野は、部品メーカーにとって大きな課題となる新しいトレンドを経験している。
このコントリビューションは、Cobotがより緊密に協力し、精度で特定の物理的仕事をこなせるという革新的なビジョンから始まり、AIの世界は情報を分析し、意思決定プロセスをサポートすることができ、未来に対する戦略的ビジョンを持つことができる。
関連論文リスト
- $π_0$: A Vision-Language-Action Flow Model for General Robot Control [77.32743739202543]
本稿では,インターネット規模のセマンティック知識を継承するために,事前学習された視覚言語モデル(VLM)上に構築された新しいフローマッチングアーキテクチャを提案する。
我々は,事前訓練後のタスクをゼロショットで実行し,人からの言語指導に追従し,微調整で新たなスキルを習得する能力の観点から,我々のモデルを評価した。
論文 参考訳(メタデータ) (2024-10-31T17:22:30Z) - HARMONIC: Cognitive and Control Collaboration in Human-Robotic Teams [0.0]
メタ認知,自然言語コミュニケーション,説明可能性を備えたロボットチームにおいて,ロボットの認知戦略を実証する。
このシステムは、認知と制御機能を柔軟に統合するHARMONICアーキテクチャを使って実現されている。
論文 参考訳(メタデータ) (2024-09-26T16:48:21Z) - Metarobotics for Industry and Society: Vision, Technologies, and Opportunities [0.0]
メタロボティクスは、次世代無線通信、マルチセンス没入、および集団知性を組み合わせることを目的としている。
ロボティクスのコースに入学した学生は、リアルタイムで真に工業的な条件下で教えられる。
学会5.0、産業4.0、産業5.0におけるロボット関連アプリケーションにおける自己決定、自己効力性、ワークライフフレキシビリティの可能性について概説する。
論文 参考訳(メタデータ) (2024-03-31T20:59:58Z) - Extended Reality for Enhanced Human-Robot Collaboration: a Human-in-the-Loop Approach [2.336967926255341]
人間とロボットのコラボレーションは、機械の強さと精度と人間の創造性と知覚的理解を組み合わせることで、これらの課題に取り組みます。
本稿では,人間のループ内原理を取り入れた自律型機械学習ベースのマニピュレータの実装フレームワークを提案する。
概念的枠組みは、ロボット学習プロセスに直接人間の関与を予測し、より高い適応性とタスクの一般化をもたらす。
論文 参考訳(メタデータ) (2024-03-21T17:50:22Z) - Giving Robots a Hand: Learning Generalizable Manipulation with
Eye-in-Hand Human Video Demonstrations [66.47064743686953]
眼内カメラは、視覚に基づくロボット操作において、より優れたサンプル効率と一般化を可能にすることを約束している。
一方、人間がタスクを行うビデオは、ロボット遠隔操作の専門知識を欠いているため、収集コストがずっと安い。
本研究では,広範にラベルのない人間ビデオによるロボット模倣データセットを拡張し,眼球運動ポリシーの一般化を大幅に促進する。
論文 参考訳(メタデータ) (2023-07-12T07:04:53Z) - Human in the AI loop via xAI and Active Learning for Visual Inspection [2.261815118231329]
産業革命は生産に自動化を導入することで製造業をディスラプトした。
ロボット工学と人工知能の進歩は、人間と機械のコラボレーションの新たなフロンティアを開く。
本研究はまず,産業5.0,人間と機械のコラボレーション,品質検査に関する最先端技術について述べる。
論文 参考訳(メタデータ) (2023-07-03T17:23:23Z) - HERD: Continuous Human-to-Robot Evolution for Learning from Human
Demonstration [57.045140028275036]
本研究では,マイクロ進化的強化学習を用いて,操作スキルを人間からロボットに伝達可能であることを示す。
本稿では,ロボットの進化経路とポリシーを協調的に最適化する多次元進化経路探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-08T15:56:13Z) - Spatial Computing and Intuitive Interaction: Bringing Mixed Reality and
Robotics Together [68.44697646919515]
本稿では,空間コンピューティングを応用し,新しいロボットのユースケースを実現するためのロボットシステムについて述べる。
空間コンピューティングとエゴセントリックな感覚を複合現実感デバイスに組み合わせることで、人間の行動をキャプチャして理解し、それらを空間的な意味を持つ行動に変換することができる。
論文 参考訳(メタデータ) (2022-02-03T10:04:26Z) - An Embarrassingly Pragmatic Introduction to Vision-based Autonomous
Robots [0.0]
視覚情報のみを用いてシーンを理解できる小型の自律走行車を開発した。
我々は、ロボットと自動運転の現在の状況と、この分野で見られる技術的、倫理的制約について論じる。
論文 参考訳(メタデータ) (2021-11-15T01:31:28Z) - Show Me What You Can Do: Capability Calibration on Reachable Workspace
for Human-Robot Collaboration [83.4081612443128]
本稿では,REMPを用いた短時間キャリブレーションにより,ロボットが到達できると考える非専門家と地道とのギャップを効果的に埋めることができることを示す。
この校正手順は,ユーザ認識の向上だけでなく,人間とロボットのコラボレーションの効率化にも寄与することを示す。
論文 参考訳(メタデータ) (2021-03-06T09:14:30Z) - Joint Mind Modeling for Explanation Generation in Complex Human-Robot
Collaborative Tasks [83.37025218216888]
本稿では,人間とロボットのコラボレーションにおいて,人間のようなコミュニケーションを実現するための新しい説明可能なAI(XAI)フレームワークを提案する。
ロボットは、人間のユーザの階層的なマインドモデルを構築し、コミュニケーションの一形態として自身のマインドの説明を生成する。
その結果,提案手法はロボットの協調動作性能とユーザ認識を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2020-07-24T23:35:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。