論文の概要: The Collection of a Human Robot Collaboration Dataset for Cooperative Assembly in Glovebox Environments
- arxiv url: http://arxiv.org/abs/2407.14649v1
- Date: Fri, 19 Jul 2024 19:56:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-23 21:33:49.324722
- Title: The Collection of a Human Robot Collaboration Dataset for Cooperative Assembly in Glovebox Environments
- Title(参考訳): グローブボックス環境における協調組立のための人間ロボット協調データセットの収集
- Authors: Shivansh Sharma, Mathew Huang, Sanat Nair, Alan Wen, Christina Petlowany, Juston Moore, Selma Wanna, Mitch Pryor,
- Abstract要約: 産業4.0は、製造プロセスの近代化のための変革的ソリューションとしてAIを導入した。その後継である産業5.0は、AI駆動ソリューションを導くために、人間を協力者と専門家として想定している。
新しい技術は、共同組み立て中にシーン、特に手の位置を安全かつリアルタイムに識別できるアルゴリズムを必要とする。
このデータセットは、産業的な人間のコラボレーションシナリオにおいて、手動と手袋のセグメンテーションに向けたアプリケーションを構築する上で、1200の難しい例を提供します。
- 参考スコア(独自算出の注目度): 2.30069810310356
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Industry 4.0 introduced AI as a transformative solution for modernizing manufacturing processes. Its successor, Industry 5.0, envisions humans as collaborators and experts guiding these AI-driven manufacturing solutions. Developing these techniques necessitates algorithms capable of safe, real-time identification of human positions in a scene, particularly their hands, during collaborative assembly. Although substantial efforts have curated datasets for hand segmentation, most focus on residential or commercial domains. Existing datasets targeting industrial settings predominantly rely on synthetic data, which we demonstrate does not effectively transfer to real-world operations. Moreover, these datasets lack uncertainty estimations critical for safe collaboration. Addressing these gaps, we present HAGS: Hand and Glove Segmentation Dataset. This dataset provides 1200 challenging examples to build applications toward hand and glove segmentation in industrial human-robot collaboration scenarios as well as assess out-of-distribution images, constructed via green screen augmentations, to determine ML-classifier robustness. We study state-of-the-art, real-time segmentation models to evaluate existing methods. Our dataset and baselines are publicly available: https://dataverse.tdl.org/dataset.xhtml?persistentId=doi:10.18738/T8/85R7KQ and https://github.com/UTNuclearRoboticsPublic/assembly_glovebox_dataset.
- Abstract(参考訳): 産業4.0は、製造プロセスの近代化のための変革的ソリューションとしてAIを導入した。
その後継者であるIndustrial 5.0は、AI駆動製造ソリューションを導く協力者や専門家として人間を想定している。
これらの技術を開発するには、協調的な組み立て中にシーン、特に手の位置を安全かつリアルタイムに識別できるアルゴリズムが必要である。
かなりの努力が手作業のセグメンテーションのためのデータセットをキュレートしてきたが、ほとんどは住宅や商業ドメインに焦点を当てている。
産業環境をターゲットとした既存のデータセットは、主に合成データに依存しており、実世界の運用に効果的に移行しないことを実証する。
さらに、これらのデータセットは安全なコラボレーションに不可欠な不確実性推定を欠いている。
これらのギャップに対処するため、HAGS: Hand and Glove Segmentation Datasetを提示します。
このデータセットは、産業用ロボットコラボレーションシナリオにおける手動と手袋のセグメンテーションに向けたアプリケーションを構築する上で、1200の難しい例を提供するとともに、グリーンスクリーン拡張によって構築された配布外画像を評価し、ML分類器の堅牢性を決定する。
既存の手法を評価するために,最先端のリアルタイムセグメンテーションモデルについて検討する。
私たちのデータセットとベースラインは、 https://dataverse.tdl.org/dataset.xhtml?
persistentId=doi:10.18738/T8/85R7KQ and https://github.com/UTNuclearRoboticsPublic/assembly_glovebox_dataset
関連論文リスト
- Testing Human-Hand Segmentation on In-Distribution and Out-of-Distribution Data in Human-Robot Interactions Using a Deep Ensemble Model [40.815678328617686]
我々は、IDデータとより挑戦的なOODシナリオの両方の下で、事前学習されたディープラーニングモデルの性能を評価することによって、新しいアプローチを提案する。
動作の速い手から指を横切る動作や動きのぼやけなど,特異かつ稀な条件を取り入れた。
その結果、産業用データセットでトレーニングされたモデルは、非工業用データセットでトレーニングされたモデルよりも優れていた。
論文 参考訳(メタデータ) (2025-01-13T21:52:46Z) - Generate to Discriminate: Expert Routing for Continual Learning [59.71853576559306]
Generate to Discriminate (G2D) は、合成データを利用してドメイン識別器を訓練する連続学習手法である。
我々は、G2Dが視覚と言語の両方におけるタスクにおいて、競争力のあるドメイン・インクリメンタル・ラーニング手法より優れていることを観察する。
論文 参考訳(メタデータ) (2024-12-22T13:16:28Z) - Efficient Data Collection for Robotic Manipulation via Compositional Generalization [70.76782930312746]
本研究では, 環境要因をデータから構成し, 未確認の要因の組み合わせに遭遇した場合に成功できることを示す。
コンポジションを利用したドメイン内データ収集手法を提案する。
ビデオはhttp://iliad.stanford.edu/robot-data-comp/で公開しています。
論文 参考訳(メタデータ) (2024-03-08T07:15:38Z) - Synthetic Data Generation for Bridging Sim2Real Gap in a Production Environment [0.0]
ドメイン知識は、コンピュータビジョンアプリケーションにおけるシミュレーションを現実のギャップにブリッジするのに不可欠である。
本稿では,生産環境における部品および組立部品の合成データ生成手法について述べる。
論文 参考訳(メタデータ) (2023-11-18T11:15:08Z) - Learning Human Action Recognition Representations Without Real Humans [66.61527869763819]
そこで本研究では,仮想人間を含む合成データを用いて,実世界の映像を活用してモデルを事前学習するベンチマークを提案する。
次に、このデータに基づいて学習した表現を、下流行動認識ベンチマークの様々なセットに転送可能であるかを評価する。
私たちのアプローチは、以前のベースラインを最大5%上回ります。
論文 参考訳(メタデータ) (2023-11-10T18:38:14Z) - Industrial Application of 6D Pose Estimation for Robotic Manipulation in Automotive Internal Logistics [0.4915744683251149]
自動車産業の内部ロジスティクスにおけるタスクを扱う部品の多くは自動化されていないが、まだ人間によって行われている。
これらのプロセスを競合的に自動化するための重要なコンポーネントは、多数の異なる部分を扱うことができる6Dポーズ推定である。
経済的にスケーラブルな実データ生成から合成データ生成に至るまで,最先端のコンポーネントを用いた代表的6Dポーズ推定パイプラインを構築した。
論文 参考訳(メタデータ) (2023-09-25T16:23:49Z) - Synthetic-to-Real Domain Adaptation for Action Recognition: A Dataset and Baseline Performances [76.34037366117234]
ロボット制御ジェスチャー(RoCoG-v2)と呼ばれる新しいデータセットを導入する。
データセットは7つのジェスチャークラスの実ビデオと合成ビデオの両方で構成されている。
我々は,最先端の行動認識とドメイン適応アルゴリズムを用いて結果を示す。
論文 参考訳(メタデータ) (2023-03-17T23:23:55Z) - TRoVE: Transforming Road Scene Datasets into Photorealistic Virtual
Environments [84.6017003787244]
本研究では、シミュレーションデータセットに存在する困難とドメインギャップに対処する合成データ生成パイプラインを提案する。
既存のデータセットからアノテーションや視覚的手がかりを利用すれば、自動マルチモーダルデータ生成が容易になることを示す。
論文 参考訳(メタデータ) (2022-08-16T20:46:08Z) - Deployment and Evaluation of a Flexible Human-Robot Collaboration Model
Based on AND/OR Graphs in a Manufacturing Environment [2.3848738964230023]
協調ロボットを製造業に効果的に展開する上での大きなボトルネックは、タスク計画アルゴリズムを開発することである。
本研究では,人間とロボットの協調を必要とするパレット化作業について検討した。
本研究は,職場における作業者の柔軟性と快適さを活かし,人間とロボットの協調モデルをいかに活用できるかを実証するものである。
論文 参考訳(メタデータ) (2020-07-13T22:05:34Z) - Human Trajectory Forecasting in Crowds: A Deep Learning Perspective [89.4600982169]
本稿では,既存の深層学習に基づくソーシャルインタラクションのモデル化手法について詳細に分析する。
本稿では、これらの社会的相互作用を効果的に捉えるための知識に基づく2つのデータ駆動手法を提案する。
我々は,人間の軌道予測分野において,重要かつ欠落したコンポーネントであるTrajNet++を大規模に開発する。
論文 参考訳(メタデータ) (2020-07-07T17:19:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。