論文の概要: Gaze-based Attention Recognition for Human-Robot Collaboration
- arxiv url: http://arxiv.org/abs/2303.17619v1
- Date: Thu, 30 Mar 2023 11:55:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-03 16:23:36.790666
- Title: Gaze-based Attention Recognition for Human-Robot Collaboration
- Title(参考訳): 人間-ロボット協調のための注視に基づく注意認識
- Authors: Pooja Prajod, Matteo Lavit Nicora, Matteo Malosio, Elisabeth Andr\'e
- Abstract要約: 本稿では,人間オペレータとコボットが等しく協力してギアボックスを組み立てる組立シナリオを提案する。
最初のステップとして、人間のオペレータが注意を払っているワークスペース内の領域を認識します。
本稿では,注目度認識モデルを開発するための新しいディープラーニング手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Attention (and distraction) recognition is a key factor in improving
human-robot collaboration. We present an assembly scenario where a human
operator and a cobot collaborate equally to piece together a gearbox. The setup
provides multiple opportunities for the cobot to adapt its behavior depending
on the operator's attention, which can improve the collaboration experience and
reduce psychological strain. As a first step, we recognize the areas in the
workspace that the human operator is paying attention to, and consequently,
detect when the operator is distracted. We propose a novel deep-learning
approach to develop an attention recognition model. First, we train a
convolutional neural network to estimate the gaze direction using a publicly
available image dataset. Then, we use transfer learning with a small dataset to
map the gaze direction onto pre-defined areas of interest. Models trained using
this approach performed very well in leave-one-subject-out evaluation on the
small dataset. We performed an additional validation of our models using the
video snippets collected from participants working as an operator in the
presented assembly scenario. Although the recall for the Distracted class was
lower in this case, the models performed well in recognizing the areas the
operator paid attention to. To the best of our knowledge, this is the first
work that validated an attention recognition model using data from a setting
that mimics industrial human-robot collaboration. Our findings highlight the
need for validation of attention recognition solutions in such full-fledged,
non-guided scenarios.
- Abstract(参考訳): 注意(および注意をそらす)認識は、人間とロボットのコラボレーションを改善する上で重要な要素である。
本稿では,人間オペレータとコボットが等しく協力してギアボックスを組み立てる組立シナリオを提案する。
このセットアップは、cobotがオペレータの注意に応じて行動に適応する複数の機会を提供し、コラボレーション体験を改善し、心理的負担を軽減することができる。
最初のステップとして、人間の操作者が注意を払っている作業空間内の領域を認識し、操作者が気を散らされていることを検知する。
本稿では,注目度認識モデルを開発するための新しいディープラーニング手法を提案する。
まず、公開画像データセットを用いて視線方向を推定するために畳み込みニューラルネットワークを訓練する。
次に,小さなデータセットを用いた転送学習を用いて,視線方向を興味のある既定領域にマッピングする。
このアプローチでトレーニングされたモデルは、小さなデータセットのremove-one-subject-out評価で非常にうまく機能しました。
提案した組立シナリオのオペレータとして作業する参加者から収集したビデオスニペットを用いて,モデルをさらに検証した。
この場合、気を取られたクラスへのリコールは低かったが、モデルはオペレーターが注意を払っていた領域を認識するのにうまくいった。
我々の知る限りでは、産業用ロボットのコラボレーションを模倣する設定から得られたデータを用いて、アテンション認識モデルを検証する最初の研究である。
本研究は, 完全誘導型非誘導型シナリオにおける注意認識ソリューションの検証の必要性を強調した。
関連論文リスト
- Exploiting Contextual Uncertainty of Visual Data for Efficient Training of Deep Models [0.65268245109828]
アクティブラーニングCDALにおける文脈多様性の概念を導入する。
モデルバイアスを低減するために、文脈的に公正なデータをキュレートするデータ修復アルゴリズムを提案する。
我々は、野生生物カメラトラップ画像の画像検索システムと、質の悪い農村道路に対する信頼性の高い警告システムの開発に取り組んでいる。
論文 参考訳(メタデータ) (2024-11-04T09:43:33Z) - Modeling User Preferences via Brain-Computer Interfacing [54.3727087164445]
我々はBrain-Computer Interface技術を用いてユーザの好みを推測し、その注意力は視覚的コンテンツと感情的体験との関連性に相関する。
我々はこれらを,情報検索,生成モデルのパーソナライズされたステアリング,感情経験のクラウドソーシング人口推定など,関連するアプリケーションにリンクする。
論文 参考訳(メタデータ) (2024-05-15T20:41:46Z) - Self-Explainable Affordance Learning with Embodied Caption [63.88435741872204]
具体的キャプションを具現化したSelf-Explainable Affordance Learning (SEA)を紹介する。
SEAは、ロボットが意図を明確に表現し、説明可能な視覚言語キャプションと視覚能力学習のギャップを埋めることを可能にする。
本稿では, 簡便かつ効率的な方法で, 空き地と自己説明を効果的に組み合わせた新しいモデルを提案する。
論文 参考訳(メタデータ) (2024-04-08T15:22:38Z) - EyeTrans: Merging Human and Machine Attention for Neural Code
Summarization [16.694601606682046]
我々は,人間の注意を機械の注意に取り入れて,ニューラルネットワークの要約を強化する手法を開発した。
人間の注意をトランスフォーマーに組み込むことの有効性を実証するため、2つのコード要約タスクに関する包括的な実験を行った。
論文 参考訳(メタデータ) (2024-02-21T19:45:06Z) - Real-time Addressee Estimation: Deployment of a Deep-Learning Model on
the iCub Robot [52.277579221741746]
住所推定は、社会ロボットが人間とスムーズに対話するために必要なスキルである。
人間の知覚スキルにインスパイアされたディープラーニングモデルは、iCubロボットに設計、訓練、デプロイされる。
本研究では,人間-ロボットのリアルタイムインタラクションにおいて,そのような実装の手順とモデルの性能について述べる。
論文 参考訳(メタデータ) (2023-11-09T13:01:21Z) - Enhancing Robot Learning through Learned Human-Attention Feature Maps [6.724036710994883]
ロボット学習にフォーカスポイントに関する補助情報を埋め込むことで、学習プロセスの効率性と堅牢性が向上すると考えられる。
本稿では,人間の注意を近似予測モデルでモデル化し,エミュレートするための新しいアプローチを提案する。
我々は,物体検出と模倣学習という2つの学習課題にアプローチを試行する。
論文 参考訳(メタデータ) (2023-08-29T14:23:44Z) - Knowledge Guided Bidirectional Attention Network for Human-Object
Interaction Detection [3.0915392100355192]
HOIにおけるボトムアップ構文解析戦略の独立的利用は直感に反し、注意の拡散につながる可能性があると論じる。
HOIに新たな知識誘導型トップダウンアテンションを導入し、関係解析を「ルックアンドサーチ」プロセスとしてモデル化することを提案する。
一つのエンコーダ-デコーダモデルでボトムアップとトップダウンの注意を統一することで、プロセスを実装します。
論文 参考訳(メタデータ) (2022-07-16T16:42:49Z) - Careful with That! Observation of Human Movements to Estimate Objects
Properties [106.925705883949]
我々は、物体の重さについての洞察を伝える人間の運動行動の特徴に焦点を当てる。
最後の目標は、ロボットがオブジェクトハンドリングに必要なケアの度合いを自律的に推測できるようにすることです。
論文 参考訳(メタデータ) (2021-03-02T08:14:56Z) - Detecting Human-Object Interactions with Action Co-occurrence Priors [108.31956827512376]
人-物間相互作用(HOI)検出タスクにおける一般的な問題は、多数のHOIクラスが少数のラベル付き例しか持たないことである。
我々は、人間と物体の相互作用の間に自然の相関と反相関が存在することを観察した。
我々はこれらの先行知識を学習し、特に稀なクラスにおいてより効果的な訓練に活用する手法を提案する。
論文 参考訳(メタデータ) (2020-07-17T02:47:45Z) - Attention-Oriented Action Recognition for Real-Time Human-Robot
Interaction [11.285529781751984]
本稿では,リアルタイムインタラクションの必要性に応えるために,アテンション指向のマルチレベルネットワークフレームワークを提案する。
具体的には、プレアテンションネットワークを使用して、低解像度でシーン内のインタラクションに大まかにフォーカスする。
他のコンパクトCNNは、抽出されたスケルトンシーケンスをアクション認識用の入力として受信する。
論文 参考訳(メタデータ) (2020-07-02T12:41:28Z) - Cost-effective Interactive Attention Learning with Neural Attention
Processes [79.8115563067513]
対話型注意学習(Interactive Attention Learning, IAL)と呼ばれる対話型学習フレームワークを提案する。
IALは、人間のアノテーションが不足しているため、過度に適合する傾向がある。
我々は,サンプル効率のよい注意機構と,コスト効率のよいインスタンスと機能の再ランクアルゴリズムを提案することで,これらの課題に対処する。
論文 参考訳(メタデータ) (2020-06-09T17:36:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。