論文の概要: Age-Related Differences in the Perception of Eye-Gaze from a Social Robot
- arxiv url: http://arxiv.org/abs/2603.08810v1
- Date: Mon, 09 Mar 2026 18:07:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:42.120644
- Title: Age-Related Differences in the Perception of Eye-Gaze from a Social Robot
- Title(参考訳): 社会ロボットの視線知覚における年齢差
- Authors: Lucas Morillo-Mendez, Martien G. S. Schrooten, Oscar Martinez Mozos,
- Abstract要約: 妄想的な視線は人間とロボットの相互作用における自然なコミュニケーションにおいて重要である。
妄想に対する感受性は年齢とともに自然に低下し、社会的知覚が低下する。
これは、人間とロボットの相互作用の文脈における適応年齢に関連する非言語的手がかりの設計に役立つかもしれない。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There is an increasing interest in social robots assisting older adults during daily life tasks. In this context, non-verbal cues such as deictic gaze are important in natural communication in human-robot interaction. However, the sensibility to deictic-gaze declines naturally with age and results in a reduction in social perception. Therefore, this work explores the benefits of deictic gaze from social robots assisting older adults during daily life tasks, and how age-related differences may influence their social perception in contrast to younger populations. This may help on the design of adaptive age-related non-verbal cues in the Human-Robot Interaction context.
- Abstract(参考訳): 日常生活作業中の高齢者を支援する社会ロボットへの関心が高まっている。
この文脈では、人間とロボットの相互作用における自然なコミュニケーションにおいて、ディスティック・ギャンブルのような非言語的手がかりが重要である。
しかし、妄想に対する感受性は年齢とともに自然に低下し、社会的知覚が低下する。
そこで本研究は,高齢者の日常生活作業における高齢者支援型社会ロボットの視覚的視線効果と,若年者に比べて年齢による差が社会的知覚に与える影響について検討する。
これは、人間とロボットの相互作用の文脈における適応年齢に関連する非言語的手がかりの設計に役立つかもしれない。
関連論文リスト
- Better Than "Better Than Nothing": Design Strategies for Enculturated Empathetic AI Robot Companions for Older Adults [0.0]
この論文は、人間とロボットの相互作用における共感をエミュレートすることが、高齢者との社会的、信頼できる、倫理的なロボットの相互作用を満足させるための重要な要素であると主張している。
修辞理論を用いて,共感的関係を説得する社会的・文化的期待を定義する。
感情的なAIを人間と社会的に補助的なロボットの相互作用の社会技術的集合体に統合することは、共感的品質を含む真の文化的価値に基づいていることを保証するために精査されるべきである、と論じている。
論文 参考訳(メタデータ) (2025-08-22T14:49:32Z) - Robotic Backchanneling in Online Conversation Facilitation: A Cross-Generational Study [36.065558339939095]
日本は、人口の認知低下率の増加や介護者の不足など、高齢化社会にまつわる多くの課題に直面している。
人工知能(AI)、特に人間とコミュニケーション可能な、社会的に具体化された知的エージェントやロボットを使ったソリューションの探求が始まっている。
本研究では,認知低下防止を目的としたグループ会話プロトコルのファシリテータとして機能するロボットをユーザスタディで評価した。
我々は、ロボットの受容性を高め、グループ会話体験を楽しむために、自然な人間の話し方であるバックチャネルを使用するように、ロボットを改造した。
論文 参考訳(メタデータ) (2024-09-25T13:08:43Z) - Proceeding of the 1st Workshop on Social Robots Personalisation At the
crossroads between engineering and humanities (CONCATENATE) [37.838596863193565]
本ワークショップは,ロボット工学におけるパーソナライゼーションに関する学際的な議論を提起することを目的としている。
異なる分野の研究者を集結させ、パーソナライズのためのガイドラインを提案することを目的としている。
論文 参考訳(メタデータ) (2023-07-10T11:11:24Z) - I am Only Happy When There is Light: The Impact of Environmental Changes
on Affective Facial Expressions Recognition [65.69256728493015]
本研究では,異なる画像条件が人間の表情からの覚醒の認識に与える影響について検討した。
以上の結果から,人間の感情状態の解釈が肯定的,否定的に大きく異なることが示唆された。
論文 参考訳(メタデータ) (2022-10-28T16:28:26Z) - Co-Located Human-Human Interaction Analysis using Nonverbal Cues: A
Survey [71.43956423427397]
本研究の目的は,非言語的キューと計算手法を同定し,効果的な性能を実現することである。
この調査は、最も広い範囲の社会現象と相互作用設定を巻き込むことによって、相手と異なる。
もっともよく使われる非言語キュー、計算方法、相互作用環境、センシングアプローチは、それぞれマイクとカメラを備えた3,4人で構成される会話活動、ベクターマシンのサポート、ミーティングである。
論文 参考訳(メタデータ) (2022-07-20T13:37:57Z) - Data-driven emotional body language generation for social robotics [58.88028813371423]
社会ロボティクスでは、人間型ロボットに感情の身体的表現を生成する能力を与えることで、人間とロボットの相互作用とコラボレーションを改善することができる。
我々は、手作業で設計されたいくつかの身体表現から学習する深層学習データ駆動フレームワークを実装した。
評価実験の結果, 生成した表現の人間同型とアニマシーは手作りの表現と異なる認識が得られなかった。
論文 参考訳(メタデータ) (2022-05-02T09:21:39Z) - Spatial Computing and Intuitive Interaction: Bringing Mixed Reality and
Robotics Together [68.44697646919515]
本稿では,空間コンピューティングを応用し,新しいロボットのユースケースを実現するためのロボットシステムについて述べる。
空間コンピューティングとエゴセントリックな感覚を複合現実感デバイスに組み合わせることで、人間の行動をキャプチャして理解し、それらを空間的な意味を持つ行動に変換することができる。
論文 参考訳(メタデータ) (2022-02-03T10:04:26Z) - Towards a Real-time Measure of the Perception of Anthropomorphism in
Human-robot Interaction [5.112850258732114]
我々は,オンラインの人間とロボットのインタラクション実験を,教育現場で実施した。
この研究には43人の英語話者が参加した。
その結果,擬人化の主観的・客観的知覚の程度は,音響・韻律的エントレメントと正の相関が認められた。
論文 参考訳(メタデータ) (2022-01-24T11:10:37Z) - A trained humanoid robot can perform human-like crossmodal social
attention conflict resolution [13.059378830912912]
本研究は,iCubロボットが人間のような社会的注意反応を表現できるようにするために,視線トリガーによる音声・視覚のクロスモーダル統合という神経ロボティックなパラダイムを採用した。
マスクは、アバターの目以外のすべての顔の視覚的手がかりをカバーするために使用された。
アバターの視線は、不一致状態よりも、聴覚・視覚のコングルーエント状態において、より優れた人間のパフォーマンスで、横断的な社会的な注意を喚起する可能性があることを観察した。
論文 参考訳(メタデータ) (2021-11-02T21:49:52Z) - Forecasting Nonverbal Social Signals during Dyadic Interactions with
Generative Adversarial Neural Networks [0.0]
社会的相互作用の成功は、非言語的知覚と行動機構の相互作用と密接に結びついている。
非言語的ジェスチャーは、発話を強調したり意図を示す能力を持つ社会ロボットを養うことが期待されている。
我々の研究は、社会的相互作用における人間の振舞いのモデル化に光を当てている。
論文 参考訳(メタデータ) (2021-10-18T15:01:32Z) - Disambiguating Affective Stimulus Associations for Robot Perception and
Dialogue [67.89143112645556]
知覚された聴覚刺激と感情表現の関連性を学ぶことができるNICOロボットを提供します。
NICOは、感情駆動対話システムの助けを借りて、個人と特定の刺激の両方でこれを行うことができる。
ロボットは、実際のHRIシナリオにおいて、被験者の聴覚刺激の楽しさを判断するために、この情報を利用することができる。
論文 参考訳(メタデータ) (2021-03-05T20:55:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。