論文の概要: A proxemics game between festival visitors and an industrial robot
- arxiv url: http://arxiv.org/abs/2105.13812v1
- Date: Fri, 28 May 2021 13:26:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-31 17:11:12.592192
- Title: A proxemics game between festival visitors and an industrial robot
- Title(参考訳): 祭りの訪問者と産業用ロボットの間のプロキシミクスゲーム
- Authors: Brigitte Krenn, Stephanie Gross, Bernhard Dieber, Horst Pichler,
Kathrin Meyer
- Abstract要約: 人間ロボットチームのコラボレーションパートナーの非言語的行動は、ヒューマンインタラクションパートナーの体験に影響を及ぼす。
Ars Electronica 2020 Festival for Art, Technology and Society(オーストリア、リンツ)では,産業用ロボットとの対話を招待した。
本研究では,ロボットと対話する人間の一般的な非言語行動と,聴衆の非言語行動について検討した。
- 参考スコア(独自算出の注目度): 1.2599533416395767
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With increased applications of collaborative robots (cobots) in industrial
workplaces, behavioural effects of human-cobot interactions need to be further
investigated. This is of particular importance as nonverbal behaviours of
collaboration partners in human-robot teams significantly influence the
experience of the human interaction partners and the success of the
collaborative task. During the Ars Electronica 2020 Festival for Art,
Technology and Society (Linz, Austria), we invited visitors to exploratively
interact with an industrial robot, exhibiting restricted interaction
capabilities: extending and retracting its arm, depending on the movements of
the volunteer. The movements of the arm were pre-programmed and telecontrolled
for safety reasons (which was not obvious to the participants). We recorded
video data of these interactions and investigated general nonverbal behaviours
of the humans interacting with the robot, as well as nonverbal behaviours of
people in the audience. Our results showed that people were more interested in
exploring the robot's action and perception capabilities than just reproducing
the interaction game as introduced by the instructors. We also found that the
majority of participants interacting with the robot approached it up to a
distance which would be perceived as threatening or intimidating, if it were a
human interaction partner. Regarding bystanders, we found examples where people
made movements as if trying out variants of the current participant's
behaviour.
- Abstract(参考訳): 産業職場における協調ロボット(コボット)の応用の増大に伴い、人間-ロボットの相互作用の行動効果がさらに研究される必要がある。
これは、人間-ロボットチームにおけるコラボレーションパートナーの非言語的行動が、ヒューマンインタラクションパートナの経験とコラボレーションタスクの成功に大きな影響を与えているため、特に重要である。
Ars Electronica 2020 Festival for Art, Technology and Society(オーストリア、リンツ)では、ボランティアの動きに応じて腕の伸縮と伸縮の制限された相互作用能力を示す産業用ロボットと爆発的に対話する客を招待した。
腕の動きは、安全のために事前にプログラムされ、遠隔操作された(参加者には明らかではなかった)。
これらのインタラクションのビデオデータを記録し,ロボットと対話する人間の一般的な非言語行動と,聴衆の非言語行動について検討した。
その結果,インストラクターが提示したインタラクションゲームを再現するよりも,ロボットの動作や知覚能力の探索に関心があることがわかった。
また、ロボットと対話する参加者の大多数が、人間との対話相手であれば脅威や脅迫と認識される距離まで接近したこともわかりました。
傍観者については,現在の参加者の行動の変種を試すような動きをする例を見出した。
関連論文リスト
- Imitation of human motion achieves natural head movements for humanoid robots in an active-speaker detection task [2.8220015774219567]
頭の動きは社会的人間と人間の相互作用に不可欠である。
そこで本研究では,直型ヒューマノイドロボットの頭部運動生成に生成型AIパイプラインを用いた。
その結果,会話中の話者を積極的に追跡しながら,人間の頭部の動きを自然に模倣することに成功した。
論文 参考訳(メタデータ) (2024-07-16T17:08:40Z) - Robot Interaction Behavior Generation based on Social Motion Forecasting for Human-Robot Interaction [9.806227900768926]
本稿では,共有ロボット表現空間における社会的動き予測のモデル化を提案する。
ECHOは上記の共有空間で活動し、社会的シナリオで遭遇したエージェントの将来の動きを予測する。
我々は,多対人動作予測タスクにおけるモデルの評価を行い,最先端の性能を大きなマージンで獲得する。
論文 参考訳(メタデータ) (2024-02-07T11:37:14Z) - Robots with Different Embodiments Can Express and Influence Carefulness
in Object Manipulation [104.5440430194206]
本研究では,2つのロボットによるコミュニケーション意図による物体操作の知覚について検討する。
ロボットの動きを設計し,物体の搬送時に注意を喚起するか否かを判断した。
論文 参考訳(メタデータ) (2022-08-03T13:26:52Z) - The Road to a Successful HRI: AI, Trust and ethicS-TRAITS [64.77385130665128]
このワークショップの目的は、人間とロボットの効果的で長期にわたるコラボレーションに向けた過去および現在進行中の研究についての洞察の交換を促進することである。
特に、自律的およびプロアクティブなインタラクションを実装するために必要なAI技術に焦点を当てています。
論文 参考訳(メタデータ) (2022-06-07T11:12:45Z) - Synthesis and Execution of Communicative Robotic Movements with
Generative Adversarial Networks [59.098560311521034]
我々は、繊細な物体を操作する際に人間が採用するのと同じキネマティクス変調を2つの異なるロボットプラットフォームに転送する方法に焦点を当てる。
我々は、ロボットのエンドエフェクターが採用する速度プロファイルを、異なる特徴を持つ物体を輸送する際に人間が何をするかに触発されて調整する。
我々は、人体キネマティクスの例を用いて訓練され、それらを一般化し、新しい有意義な速度プロファイルを生成する、新しいジェネレーティブ・アドバイサル・ネットワークアーキテクチャを利用する。
論文 参考訳(メタデータ) (2022-03-29T15:03:05Z) - RILI: Robustly Influencing Latent Intent [7.025418443146435]
変化するパートナーのダイナミクスに影響を与えることを学ぶ頑健なアプローチを提案する。
提案手法は, 対話の繰り返しを通じて, パートナーの集合を訓練する。
そして、ロボットが元のパートナーと学んだ軌跡をサンプリングすることで、新しいパートナーに迅速に適応する。
論文 参考訳(メタデータ) (2022-03-23T19:55:49Z) - A MultiModal Social Robot Toward Personalized Emotion Interaction [1.2183405753834562]
本研究では,ロボットインタラクションポリシーを強化するために,強化学習を伴うマルチモーダルヒューマンロボットインタラクション(HRI)フレームワークを実証する。
目標は、ロボットがより自然で魅力的なHRIフレームワークを作れるように、このフレームワークを社会シナリオに適用することだ。
論文 参考訳(メタデータ) (2021-10-08T00:35:44Z) - Let's be friends! A rapport-building 3D embodied conversational agent
for the Human Support Robot [0.0]
会話中の非言語行動の微妙なミラーリング(模倣または平行共感とも呼ばれる)はラプポート構築に不可欠である。
本研究の課題は,対話者の表情と頭部の動きを反映できるECAとヒューマンサービスロボットを組み合わせることで,ユーザエクスペリエンスが向上するかどうかである。
私たちの貢献は、対話者の顔を追跡し、人間の支援ロボットと統合されたリアルタイムで顔の表情や頭の動きを反映することができる表現的ECAの複雑な統合です。
論文 参考訳(メタデータ) (2021-03-08T01:02:41Z) - Show Me What You Can Do: Capability Calibration on Reachable Workspace
for Human-Robot Collaboration [83.4081612443128]
本稿では,REMPを用いた短時間キャリブレーションにより,ロボットが到達できると考える非専門家と地道とのギャップを効果的に埋めることができることを示す。
この校正手順は,ユーザ認識の向上だけでなく,人間とロボットのコラボレーションの効率化にも寄与することを示す。
論文 参考訳(メタデータ) (2021-03-06T09:14:30Z) - Joint Mind Modeling for Explanation Generation in Complex Human-Robot
Collaborative Tasks [83.37025218216888]
本稿では,人間とロボットのコラボレーションにおいて,人間のようなコミュニケーションを実現するための新しい説明可能なAI(XAI)フレームワークを提案する。
ロボットは、人間のユーザの階層的なマインドモデルを構築し、コミュニケーションの一形態として自身のマインドの説明を生成する。
その結果,提案手法はロボットの協調動作性能とユーザ認識を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2020-07-24T23:35:03Z) - Human Grasp Classification for Reactive Human-to-Robot Handovers [50.91803283297065]
本稿では,ロボットが人間に遭遇するロボットのハンドオーバに対するアプローチを提案する。
対象物をさまざまな手形やポーズで保持する典型的な方法をカバーする,人間の把握データセットを収集する。
本稿では,検出した把握位置と手の位置に応じて人手から対象物を取り出す計画実行手法を提案する。
論文 参考訳(メタデータ) (2020-03-12T19:58:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。