論文の概要: Mining multi-modal communication patterns in interaction with
explainable and non-explainable robots
- arxiv url: http://arxiv.org/abs/2312.14634v1
- Date: Fri, 22 Dec 2023 12:12:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-25 15:02:26.975028
- Title: Mining multi-modal communication patterns in interaction with
explainable and non-explainable robots
- Title(参考訳): 説明可能・説明不能ロボットとのインタラクションにおけるマルチモーダルコミュニケーションパターンのマイニング
- Authors: Suna Bensch and Amanda Eriksson
- Abstract要約: 説明不能で説明不能なロボットと対話する人間のインタラクションパターンについて検討する。
そこでは20人の人間が説明不能または説明不能のPepperロボットに、ボード上の物体を移動させるように指示した。
- 参考スコア(独自算出の注目度): 0.138120109831448
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We investigate interaction patterns for humans interacting with explainable
and non-explainable robots. Non-explainable robots are here robots that do not
explain their actions or non-actions, neither do they give any other feedback
during interaction, in contrast to explainable robots. We video recorded and
analyzed human behavior during a board game, where 20 humans verbally
instructed either an explainable or non-explainable Pepper robot to move
objects on the board. The transcriptions and annotations of the videos were
transformed into transactions for association rule mining. Association rules
discovered communication patterns in the interaction between the robots and the
humans, and the most interesting rules were also tested with regular chi-square
tests. Some statistically significant results are that there is a strong
correlation between men and non-explainable robots and women and explainable
robots, and that humans mirror some of the robot's modality. Our results also
show that it is important to contextualize human interaction patterns, and that
this can be easily done using association rules as an investigative tool. The
presented results are important when designing robots that should adapt their
behavior to become understandable for the interacting humans.
- Abstract(参考訳): 説明可能で説明不能なロボットと対話する人間のインタラクションパターンについて検討する。
説明不能なロボットは、説明可能なロボットとは対照的に、動作や非動作を説明せず、インタラクション中に他のフィードバックも与えないロボットである。
20人の人間が説明可能なpepperロボットか説明不能なpepperロボットのいずれかにボード上のオブジェクトを移動させるように指示したボードゲーム中に、人間の行動を記録し分析した。
ビデオの転写と注釈は、アソシエーションルールマイニングのためのトランザクションに変換された。
アソシエーション・ルールは、ロボットと人間の相互作用におけるコミュニケーションパターンを発見し、最も興味深いルールは、通常の2乗テストでもテストされた。
統計的に有意な結果は、男性と説明不能なロボットと女性と説明可能なロボットの間に強い相関関係があり、人間がロボットのモダリティの一部を反映しているということである。
また,人間のインタラクションパターンの文脈化が重要であり,関連ルールを調査ツールとして活用することが重要であることも示唆した。
これらの結果は,人間の行動に適応するロボットの設計において重要である。
関連論文リスト
- Singing the Body Electric: The Impact of Robot Embodiment on User
Expectations [7.408858358967414]
ユーザーはロボットのメンタルモデルを開発し、ロボットとどのような相互作用ができるかを概念化する。
概念化はしばしばロボットとの相互作用の前に形成され、ロボットの物理的デザインを観察することのみに基づいている。
本研究では,ロボットが持つ社会的・身体的能力に対して,ユーザがどのような期待を抱くかを予測するために,ロボットのマルチモーダル機能を利用することを提案する。
論文 参考訳(メタデータ) (2024-01-13T04:42:48Z) - Giving Robots a Hand: Learning Generalizable Manipulation with
Eye-in-Hand Human Video Demonstrations [66.47064743686953]
眼内カメラは、視覚に基づくロボット操作において、より優れたサンプル効率と一般化を可能にすることを約束している。
一方、人間がタスクを行うビデオは、ロボット遠隔操作の専門知識を欠いているため、収集コストがずっと安い。
本研究では,広範にラベルのない人間ビデオによるロボット模倣データセットを拡張し,眼球運動ポリシーの一般化を大幅に促進する。
論文 参考訳(メタデータ) (2023-07-12T07:04:53Z) - Open-World Object Manipulation using Pre-trained Vision-Language Models [72.87306011500084]
ロボットが人からの指示に従うためには、人間の語彙の豊かな意味情報を繋げなければならない。
我々は、事前学習された視覚言語モデルを利用して、オブジェクト識別情報を抽出するシンプルなアプローチを開発する。
実際の移動マニピュレータにおける様々な実験において、MOOはゼロショットを様々な新しいオブジェクトカテゴリや環境に一般化する。
論文 参考訳(メタデータ) (2023-03-02T01:55:10Z) - Robots with Different Embodiments Can Express and Influence Carefulness
in Object Manipulation [104.5440430194206]
本研究では,2つのロボットによるコミュニケーション意図による物体操作の知覚について検討する。
ロボットの動きを設計し,物体の搬送時に注意を喚起するか否かを判断した。
論文 参考訳(メタデータ) (2022-08-03T13:26:52Z) - Explain yourself! Effects of Explanations in Human-Robot Interaction [10.389325878657697]
ロボット決定の説明は、ユーザーの知覚に影響を与え、信頼性を正当化し、信頼を高める。
ロボットが人間の知覚に与える影響は、まだ十分に研究されていない。
本研究は、人間とロボットの相互作用を説明する必要性と可能性を示す。
論文 参考訳(メタデータ) (2022-04-09T15:54:27Z) - Synthesis and Execution of Communicative Robotic Movements with
Generative Adversarial Networks [59.098560311521034]
我々は、繊細な物体を操作する際に人間が採用するのと同じキネマティクス変調を2つの異なるロボットプラットフォームに転送する方法に焦点を当てる。
我々は、ロボットのエンドエフェクターが採用する速度プロファイルを、異なる特徴を持つ物体を輸送する際に人間が何をするかに触発されて調整する。
我々は、人体キネマティクスの例を用いて訓練され、それらを一般化し、新しい有意義な速度プロファイルを生成する、新しいジェネレーティブ・アドバイサル・ネットワークアーキテクチャを利用する。
論文 参考訳(メタデータ) (2022-03-29T15:03:05Z) - Spatial Computing and Intuitive Interaction: Bringing Mixed Reality and
Robotics Together [68.44697646919515]
本稿では,空間コンピューティングを応用し,新しいロボットのユースケースを実現するためのロボットシステムについて述べる。
空間コンピューティングとエゴセントリックな感覚を複合現実感デバイスに組み合わせることで、人間の行動をキャプチャして理解し、それらを空間的な意味を持つ行動に変換することができる。
論文 参考訳(メタデータ) (2022-02-03T10:04:26Z) - A proxemics game between festival visitors and an industrial robot [1.2599533416395767]
人間ロボットチームのコラボレーションパートナーの非言語的行動は、ヒューマンインタラクションパートナーの体験に影響を及ぼす。
Ars Electronica 2020 Festival for Art, Technology and Society(オーストリア、リンツ)では,産業用ロボットとの対話を招待した。
本研究では,ロボットと対話する人間の一般的な非言語行動と,聴衆の非言語行動について検討した。
論文 参考訳(メタデータ) (2021-05-28T13:26:00Z) - Integrating Intrinsic and Extrinsic Explainability: The Relevance of
Understanding Neural Networks for Human-Robot Interaction [19.844084722919764]
説明可能な人工知能(XAI)は、インテリジェントで自律的なシステムの信頼と受容を促進するのに役立つ。
NICOは、オープンソースのヒューマノイドロボットプラットフォームであり、ロボット自身による本質的な説明と環境によって提供される外生的な説明の相互作用によって、効率的なロボット動作を実現する方法について紹介されている。
論文 参考訳(メタデータ) (2020-10-09T14:28:48Z) - Joint Mind Modeling for Explanation Generation in Complex Human-Robot
Collaborative Tasks [83.37025218216888]
本稿では,人間とロボットのコラボレーションにおいて,人間のようなコミュニケーションを実現するための新しい説明可能なAI(XAI)フレームワークを提案する。
ロボットは、人間のユーザの階層的なマインドモデルを構築し、コミュニケーションの一形態として自身のマインドの説明を生成する。
その結果,提案手法はロボットの協調動作性能とユーザ認識を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2020-07-24T23:35:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。