論文の概要: A trained humanoid robot can perform human-like crossmodal social
attention conflict resolution
- arxiv url: http://arxiv.org/abs/2111.01906v1
- Date: Tue, 2 Nov 2021 21:49:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-04 14:05:44.697639
- Title: A trained humanoid robot can perform human-like crossmodal social
attention conflict resolution
- Title(参考訳): 訓練されたヒューマノイドロボットは、人間のようなソーシャルアテンション紛争解決を行うことができる
- Authors: Di Fu, Fares Abawi, Hugo Carneiro, Matthias Kerzel, Ziwei Chen, Erik
Strahl, Xun Liu, Stefan Wermter
- Abstract要約: 本研究は,iCubロボットが人間のような社会的注意反応を表現できるようにするために,視線トリガーによる音声・視覚のクロスモーダル統合という神経ロボティックなパラダイムを採用した。
マスクは、アバターの目以外のすべての顔の視覚的手がかりをカバーするために使用された。
アバターの視線は、不一致状態よりも、聴覚・視覚のコングルーエント状態において、より優れた人間のパフォーマンスで、横断的な社会的な注意を喚起する可能性があることを観察した。
- 参考スコア(独自算出の注目度): 13.059378830912912
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Due to the COVID-19 pandemic, robots could be seen as potential resources in
tasks like helping people work remotely, sustaining social distancing, and
improving mental or physical health. To enhance human-robot interaction, it is
essential for robots to become more socialised, via processing multiple social
cues in a complex real-world environment. Our study adopted a neurorobotic
paradigm of gaze-triggered audio-visual crossmodal integration to make an iCub
robot express human-like social attention responses. At first, a behavioural
experiment was conducted on 37 human participants. To improve ecological
validity, a round-table meeting scenario with three masked animated avatars was
designed with the middle one capable of performing gaze shift, and the other
two capable of generating sound. The gaze direction and the sound location are
either congruent or incongruent. Masks were used to cover all facial visual
cues other than the avatars' eyes. We observed that the avatar's gaze could
trigger crossmodal social attention with better human performance in the
audio-visual congruent condition than in the incongruent condition. Then, our
computational model, GASP, was trained to implement social cue detection,
audio-visual saliency prediction, and selective attention. After finishing the
model training, the iCub robot was exposed to similar laboratory conditions as
human participants, demonstrating that it can replicate similar attention
responses as humans regarding the congruency and incongruency performance,
while overall the human performance was still superior. Therefore, this
interdisciplinary work provides new insights on mechanisms of crossmodal social
attention and how it can be modelled in robots in a complex environment.
- Abstract(参考訳): 新型コロナウイルス(COVID-19)のパンデミックにより、ロボットはリモートワーク、ソーシャルディスタンシングの維持、精神や身体の健康の改善といったタスクの潜在的なリソースと見なされる。
人間とロボットの相互作用を強化するためには、複雑な現実の環境で複数の社会的手がかりを処理することによって、ロボットがより社会的になる必要がある。
本研究では,視聴覚と視覚のクロスモーダル統合によるニューロロボティクスのパラダイムを採用し,icubロボットが人間のような社会的注意応答を表現できるようにした。
最初は37人の被験者を対象に行動実験を行った。
生態学的妥当性を向上させるため,3つのマスクアニメーションアニメーションアバターを用いたラウンドテーブルミーティングシナリオを,視線シフトが可能な中盤と,音を発生可能な他の2台で設計した。
視線方向と音の位置は一致または一致しない。
マスクは、アバターの目以外のすべての顔の視覚的手がかりをカバーするために使用された。
本研究は, アバターの視線が, 違和感よりも, 視聴覚的コングルーエント状態において, 人間のパフォーマンスが向上し, 対人的社会的注意を惹起する可能性が示唆された。
そこで,我々の計算モデルであるGASPは,ソーシャルキューの検出,音声・視覚の相性予測,選択的注意の実施を訓練した。
モデルトレーニングを終えると、icubロボットは人間と同じような実験条件に晒され、コングルエンシーと違和感に関する人間と同様の注意応答を再現できることを示した。
したがって、この学際的な研究は、クロスモーダルな社会的な注意のメカニズムと、複雑な環境でロボットでどのようにモデル化できるかについての新たな洞察を提供する。
関連論文リスト
- Robot Interaction Behavior Generation based on Social Motion Forecasting for Human-Robot Interaction [9.806227900768926]
本稿では,共有ロボット表現空間における社会的動き予測のモデル化を提案する。
ECHOは上記の共有空間で活動し、社会的シナリオで遭遇したエージェントの将来の動きを予測する。
我々は,多対人動作予測タスクにおけるモデルの評価を行い,最先端の性能を大きなマージンで獲得する。
論文 参考訳(メタデータ) (2024-02-07T11:37:14Z) - Habitat 3.0: A Co-Habitat for Humans, Avatars and Robots [119.55240471433302]
Habitat 3.0は、家庭環境における協調ロボットタスクを研究するためのシミュレーションプラットフォームである。
複雑な変形可能な体と外観と運動の多様性をモデル化する際の課題に対処する。
Human-in-the-loopインフラストラクチャは、マウス/キーボードまたはVRインターフェースを介してシミュレーションされたロボットとの実際のヒューマンインタラクションを可能にする。
論文 参考訳(メタデータ) (2023-10-19T17:29:17Z) - See, Hear, and Feel: Smart Sensory Fusion for Robotic Manipulation [49.925499720323806]
視覚的、聴覚的、触覚的知覚が、ロボットが複雑な操作タスクを解くのにどのように役立つかを研究する。
私たちは、カメラで見たり、コンタクトマイクで聞いたり、視覚ベースの触覚センサーで感じるロボットシステムを構築しました。
論文 参考訳(メタデータ) (2022-12-07T18:55:53Z) - Data-driven emotional body language generation for social robotics [58.88028813371423]
社会ロボティクスでは、人間型ロボットに感情の身体的表現を生成する能力を与えることで、人間とロボットの相互作用とコラボレーションを改善することができる。
我々は、手作業で設計されたいくつかの身体表現から学習する深層学習データ駆動フレームワークを実装した。
評価実験の結果, 生成した表現の人間同型とアニマシーは手作りの表現と異なる認識が得られなかった。
論文 参考訳(メタデータ) (2022-05-02T09:21:39Z) - Let's be friends! A rapport-building 3D embodied conversational agent
for the Human Support Robot [0.0]
会話中の非言語行動の微妙なミラーリング(模倣または平行共感とも呼ばれる)はラプポート構築に不可欠である。
本研究の課題は,対話者の表情と頭部の動きを反映できるECAとヒューマンサービスロボットを組み合わせることで,ユーザエクスペリエンスが向上するかどうかである。
私たちの貢献は、対話者の顔を追跡し、人間の支援ロボットと統合されたリアルタイムで顔の表情や頭の動きを反映することができる表現的ECAの複雑な統合です。
論文 参考訳(メタデータ) (2021-03-08T01:02:41Z) - Show Me What You Can Do: Capability Calibration on Reachable Workspace
for Human-Robot Collaboration [83.4081612443128]
本稿では,REMPを用いた短時間キャリブレーションにより,ロボットが到達できると考える非専門家と地道とのギャップを効果的に埋めることができることを示す。
この校正手順は,ユーザ認識の向上だけでなく,人間とロボットのコラボレーションの効率化にも寄与することを示す。
論文 参考訳(メタデータ) (2021-03-06T09:14:30Z) - PHASE: PHysically-grounded Abstract Social Events for Machine Social
Perception [50.551003004553806]
私たちは、物理的に根拠のある抽象的なソーシャルイベント、フェーズのデータセットを作成します。
フェーズは人間の実験によって検証され、人間は社会出来事において豊かな相互作用を知覚する。
ベースラインモデルとして,最新のフィードフォワードニューラルネットワークよりも優れたベイズ逆計画手法SIMPLEを導入する。
論文 参考訳(メタデータ) (2021-03-02T18:44:57Z) - Joint Mind Modeling for Explanation Generation in Complex Human-Robot
Collaborative Tasks [83.37025218216888]
本稿では,人間とロボットのコラボレーションにおいて,人間のようなコミュニケーションを実現するための新しい説明可能なAI(XAI)フレームワークを提案する。
ロボットは、人間のユーザの階層的なマインドモデルを構築し、コミュニケーションの一形態として自身のマインドの説明を生成する。
その結果,提案手法はロボットの協調動作性能とユーザ認識を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2020-07-24T23:35:03Z) - Human Perception of Intrinsically Motivated Autonomy in Human-Robot
Interaction [2.485182034310304]
人間に生息する環境でロボットを使用する場合の課題は、人間同士の相互作用によって引き起こされる摂動に対して、魅力的だが堅牢な振る舞いを設計することである。
我々のアイデアは、ロボットに本質的なモチベーション(IM)を持たせることで、新しい状況に対処し、人間以外の真の社会的存在として現れるようにすることです。
本稿では、自律的に生成された振る舞いを相互に比較できる「ロボット学者」による研究設計について述べる。
論文 参考訳(メタデータ) (2020-02-14T09:49:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。