論文の概要: Human in the AI loop via xAI and Active Learning for Visual Inspection
- arxiv url: http://arxiv.org/abs/2307.05508v2
- Date: Mon, 17 Jul 2023 07:52:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-18 19:35:53.735251
- Title: Human in the AI loop via xAI and Active Learning for Visual Inspection
- Title(参考訳): xAIによるAIループの人間と視覚検査のためのアクティブラーニング
- Authors: Jo\v{z}e M. Ro\v{z}anec and Elias Montini and Vincenzo Cutrona and
Dimitrios Papamartzivanos and Timotej Klemen\v{c}i\v{c} and Bla\v{z} Fortuna
and Dunja Mladeni\'c and Entso Veliou and Thanassis Giannetsos and Christos
Emmanouilidis
- Abstract要約: 産業革命は生産に自動化を導入することで製造業をディスラプトした。
ロボット工学と人工知能の進歩は、人間と機械のコラボレーションの新たなフロンティアを開く。
本研究はまず,産業5.0,人間と機械のコラボレーション,品質検査に関する最先端技術について述べる。
- 参考スコア(独自算出の注目度): 2.261815118231329
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Industrial revolutions have historically disrupted manufacturing by
introducing automation into production. Increasing automation reshapes the role
of the human worker. Advances in robotics and artificial intelligence open new
frontiers of human-machine collaboration. Such collaboration can be realized
considering two sub-fields of artificial intelligence: active learning and
explainable artificial intelligence. Active learning aims to devise strategies
that help obtain data that allows machine learning algorithms to learn better.
On the other hand, explainable artificial intelligence aims to make the machine
learning models intelligible to the human person. The present work first
describes Industry 5.0, human-machine collaboration, and state-of-the-art
regarding quality inspection, emphasizing visual inspection. Then it outlines
how human-machine collaboration could be realized and enhanced in visual
inspection. Finally, some of the results obtained in the EU H2020 STAR project
regarding visual inspection are shared, considering artificial intelligence,
human digital twins, and cybersecurity.
- Abstract(参考訳): 産業革命は歴史的に製造業を混乱させてきた。
自動化の増大は、人間労働者の役割を再形作る。
ロボットと人工知能の進歩は、人間と機械のコラボレーションの新たなフロンティアを開く。
このようなコラボレーションは、アクティブラーニングと説明可能な人工知能の2つのサブフィールドを考慮して実現することができる。
active learningは、機械学習アルゴリズムをより良く学習できるデータを得るための戦略を考案することを目的としている。
一方、説明可能な人工知能は、機械学習モデルを人間にインテリジェントにすることを目指している。
本研究はまず,産業5.0,人間と機械のコラボレーション,品質検査に関する最先端技術について述べる。
そして、視覚検査において人間と機械のコラボレーションをどのように実現し、強化するかを概説する。
最後に、EU H2020 STARプロジェクトで得られた成果のいくつかは、人工知能、人間のデジタルツイン、サイバーセキュリティを考慮して共有されている。
関連論文リスト
- Let people fail! Exploring the influence of explainable virtual and robotic agents in learning-by-doing tasks [45.23431596135002]
本研究は,古典的対パートナー意識による説明が学習作業中の人間の行動とパフォーマンスに与える影響を比較検討した。
その結果, パートナー意識による説明は, 関係する人工エージェントの種類によって, 参加者に異なる影響を及ぼした。
論文 参考訳(メタデータ) (2024-11-15T13:22:04Z) - A novel integrated industrial approach with cobots in the age of
industry 4.0 through conversational interaction and computer vision [1.2848575793946582]
労働者を置き換えるロボットから、役に立つ同僚として働くロボットまで、ロボット自動化の分野は新しいトレンドを経験している。
労働者を置き換えるロボットから、役に立つ同僚として働くロボットまで、ロボット自動化の分野は新しいトレンドを経験している。
論文 参考訳(メタデータ) (2024-02-16T10:35:01Z) - Human-oriented Representation Learning for Robotic Manipulation [64.59499047836637]
人間は本質的に、操作作業において環境を効率的に探索し、相互作用することを可能にする、一般化可能な視覚表現を持っている。
我々は、このアイデアを、事前訓練された視覚エンコーダの上に、人間指向のマルチタスク微調整のレンズを通してフォーマル化する。
我々のタスクフュージョンデコーダは、下流操作ポリシー学習のための最先端の3つのビジュアルエンコーダの表現を一貫して改善する。
論文 参考訳(メタデータ) (2023-10-04T17:59:38Z) - Stabilizing Contrastive RL: Techniques for Robotic Goal Reaching from
Offline Data [101.43350024175157]
自己指導型学習は、制御戦略を学ぶのに必要な人間のアノテーションとエンジニアリングの労力を減らす可能性がある。
我々の研究は、強化学習(RL)自体が自己監督的な問題であることを示す先行研究に基づいている。
コントラスト学習に基づく自己教師付きRLアルゴリズムは,実世界の画像に基づくロボット操作タスクを解くことができることを示す。
論文 参考訳(メタデータ) (2023-06-06T01:36:56Z) - Self-Improving Robots: End-to-End Autonomous Visuomotor Reinforcement
Learning [54.636562516974884]
模倣と強化学習において、人間の監督コストは、ロボットが訓練できるデータの量を制限する。
本研究では,自己改善型ロボットシステムのための新しい設計手法であるMEDAL++を提案する。
ロボットは、タスクの実施と解除の両方を学ぶことで、自律的にタスクを練習し、同時にデモンストレーションから報酬関数を推論する。
論文 参考訳(メタデータ) (2023-03-02T18:51:38Z) - Human-in-the-loop Embodied Intelligence with Interactive Simulation
Environment for Surgical Robot Learning [19.390115282150337]
我々は,手術ロボット学習のための対話型シミュレーションプラットフォームを用いて,人体とループのインボディードインテリジェンスについて検討した。
具体的には、以前リリースしたSurRoLシミュレータに基づいて、いくつかの新機能を備えたプラットフォームを構築します。
本稿では, シミュレーション環境の改善を, 設計した新機能で紹介し, 具体的インテリジェンスに人的要因を組み込むことの有効性を検証した。
論文 参考訳(メタデータ) (2023-01-01T18:05:25Z) - Deep Active Learning for Computer Vision: Past and Future [50.19394935978135]
AIモデルの開発に欠かせない役割にもかかわらず、アクティブラーニングの研究は他の研究の方向性ほど集中的ではない。
データ自動化の課題に対処し、自動化された機械学習システムに対処することによって、アクティブな学習はAI技術の民主化を促進する。
論文 参考訳(メタデータ) (2022-11-27T13:07:14Z) - Human-Robot Collaboration and Machine Learning: A Systematic Review of
Recent Research [69.48907856390834]
人間ロボットコラボレーション(Human-robot collaboration、HRC)とは、人間とロボットの相互作用を探索する手法である。
本稿では,HRCの文脈における機械学習技術の利用に関する詳細な文献レビューを提案する。
論文 参考訳(メタデータ) (2021-10-14T15:14:33Z) - An Augmented Reality Platform for Introducing Reinforcement Learning to
K-12 Students with Robots [10.835598738100359]
本研究では,学習の隠れ状態を明らかにする拡張現実(AR)システムを提案する。
本稿では,システムの設計と実装について述べるとともに,今後の2つの方向性について議論する。
論文 参考訳(メタデータ) (2021-10-10T03:51:39Z) - Learning to Complement Humans [67.38348247794949]
オープンワールドにおけるAIに対するビジョンの高まりは、知覚、診断、推論タスクのために人間を補完できるシステムの開発に焦点を当てている。
我々は,人間-機械チームの複合的なパフォーマンスを最適化するために,エンド・ツー・エンドの学習戦略をどのように活用できるかを実証する。
論文 参考訳(メタデータ) (2020-05-01T20:00:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。