論文の概要: Empirical Study of Gaze Behavior in Children and Young Adults Using Deep Neural Networks and Robot Implementation: A Comparative Analysis of Social Situations
- arxiv url: http://arxiv.org/abs/2603.00074v1
- Date: Thu, 12 Feb 2026 07:01:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-15 16:46:57.01558
- Title: Empirical Study of Gaze Behavior in Children and Young Adults Using Deep Neural Networks and Robot Implementation: A Comparative Analysis of Social Situations
- Title(参考訳): ディープニューラルネットワークとロボットによる子ども・若者の視線行動の実証的研究:社会状況の比較分析
- Authors: Ramtin Tabatabaei, Milad Hosseini, Ali Mohajerzarrinkelk, Ali F. Meghdari, Alireza Taheri,
- Abstract要約: 我々は、特定の社会的状況下での子どもや大人の視線行動を模倣するために、ディープニューラルネットワークモデルを訓練する。
実生活環境下での直ロボットに配置することで,本モデルの実用性を評価する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In a preliminary exploratory study, our goal was to train deep neural network models to mimic children's and/or adults' gaze behavior in certain social situations to reach this objective. Additionally, we aim to identify potential differences in gaze behavior between these two age groups based on our participants' gaze data. Furthermore, we aimed to assess the practical effectiveness of our adult and children models by deploying them on a Nao robot in real-life settings. To achieve this, we first created two video clips, one animation and one live-action, to depict some social situations. Using an eye-tracking device, we collected eye-tracking data from 24 participants, including 12 children and 12 adults. Then, we utilized deep neural networks, specifically LSTM and Transformer Networks, to analyze and model the gaze patterns of each group of participants. Our results indicate that when the models attempted to predict people's locations (in the next frame), they had an accuracy in the range of 62%-70% with one attempt, which increased by ~20% when attempted twice (i.e. the two highest-ranked predicted labels as outputs). As expected, the result underscores that gaze behavior is not a wholly unique phenomenon. We obtained feedback from 57 new participants to evaluate the robot's functionality. These participants were asked to watch two videos of the robot's performance in each mode and then complete a comprehensive questionnaire. The questionnaire results indicate that the participants expressed satisfaction with the robot's interaction, including its attention, intelligence, and responsiveness to human actions. However, they did not perceive the robot as a social companion comparable to a human. This exploratory study tries to address/show potentials of the social acceptance of robots based on human nonverbal behavioral cues for future research.
- Abstract(参考訳): 予備的な探索研究では、この目的を達成するために、子どもや大人の視線行動を模倣するディープニューラルネットワークモデルを訓練することを目的としていた。
さらに、参加者の視線データに基づいて、これら2つの年齢群間での視線行動の潜在的な差異を明らかにすることを目的とする。
さらに, 実生活環境において, 直ロボットに配置することで, 成人・子供モデルの実用性を評価することを目的とした。
これを実現するために、私たちはまず、いくつかの社会的状況を描くために、アニメーションとライブアクションの2つのビデオクリップを作成しました。
視線追跡装置を用いて、12人の子供12名、成人12名を含む24名の視線追跡データを収集した。
次に、深層ニューラルネットワーク、特にLSTMとTransformer Networksを使用して、各グループの視線パターンを分析し、モデル化した。
その結果,2回試みた場合の精度は62%~70%に向上し,2回試みた場合の精度は約20%向上した(つまり,2つの上位のラベルがアウトプットである)。
予想通り、この結果は視線行動が全くユニークな現象ではないことを裏付けている。
57名の被験者からフィードバックを得て,ロボットの機能評価を行った。
参加者は、各モードでロボットのパフォーマンスの2つのビデオを視聴し、総合的なアンケートを完了するよう求められた。
質問紙調査の結果,被験者はロボットの行動に対する注意,知性,反応性など,ロボットの相互作用に満足感を示していた。
しかし、ロボットは人間に匹敵する社会的な仲間だとは感じなかった。
この探索的研究は、人間の非言語行動の手がかりに基づくロボットの社会的受容の可能性について、今後の研究を試みている。
関連論文リスト
- Recognizing Actions from Robotic View for Natural Human-Robot Interaction [52.00935005918032]
自然人-ロボットインタラクション(Natural Human-Robot Interaction, N-HRI)は、ロボット自身が動いているか静止しているかに関わらず、ロボットが様々な距離と状態で人間の行動を認識することを要求する。
N-HRIの既存のベンチマークは、限られたデータ、モダリティ、タスクカテゴリ、主題や環境の多様性のために、N-HRIのユニークな複雑さに対処できない。
モバイルサービスロボットで広く使われている知覚中心ロボットビューのための大規模データセット(Action from Robotic View)を紹介する。
論文 参考訳(メタデータ) (2025-07-30T09:48:34Z) - Designing for Difference: How Human Characteristics Shape Perceptions of Collaborative Robots [8.095309110037315]
反社会的ロボット行動は一貫して最低と評価され、高齢者とのコラボレーションはより敏感な評価を導いた。
これらの結果は、人間の特徴と相互作用パラダイムの両方が協調ロボットの受容性に影響を与えることを示唆している。
論文 参考訳(メタデータ) (2025-07-22T11:36:08Z) - Real-time Addressee Estimation: Deployment of a Deep-Learning Model on
the iCub Robot [52.277579221741746]
住所推定は、社会ロボットが人間とスムーズに対話するために必要なスキルである。
人間の知覚スキルにインスパイアされたディープラーニングモデルは、iCubロボットに設計、訓練、デプロイされる。
本研究では,人間-ロボットのリアルタイムインタラクションにおいて,そのような実装の手順とモデルの性能について述べる。
論文 参考訳(メタデータ) (2023-11-09T13:01:21Z) - Predicting Human Impressions of Robot Performance During Navigation Tasks [8.01980632893357]
本研究では,非言語行動手がかりと機械学習技術を用いて,ロボット行動に対する人々の印象を予測する可能性を検討する。
以上の結果から,表情だけでロボット性能の人的印象について有用な情報が得られることが示唆された。
教師付き学習技術は、ほとんどの場合、人間のロボット性能予測よりも優れていたため、有望であった。
論文 参考訳(メタデータ) (2023-10-17T21:12:32Z) - Affordances from Human Videos as a Versatile Representation for Robotics [31.248842798600606]
我々は、人間がどこでどのように対話するかを推定する視覚的余裕モデルを訓練する。
これらの行動割当の構造は、ロボットが多くの複雑なタスクを直接実行できるようにする。
私たちは、VRBと呼ばれる4つの現実世界環境、10以上のタスクと2つのロボットプラットフォームにおいて、私たちのアプローチの有効性を示します。
論文 参考訳(メタデータ) (2023-04-17T17:59:34Z) - Co-Located Human-Human Interaction Analysis using Nonverbal Cues: A
Survey [71.43956423427397]
本研究の目的は,非言語的キューと計算手法を同定し,効果的な性能を実現することである。
この調査は、最も広い範囲の社会現象と相互作用設定を巻き込むことによって、相手と異なる。
もっともよく使われる非言語キュー、計算方法、相互作用環境、センシングアプローチは、それぞれマイクとカメラを備えた3,4人で構成される会話活動、ベクターマシンのサポート、ミーティングである。
論文 参考訳(メタデータ) (2022-07-20T13:37:57Z) - Data-driven emotional body language generation for social robotics [58.88028813371423]
社会ロボティクスでは、人間型ロボットに感情の身体的表現を生成する能力を与えることで、人間とロボットの相互作用とコラボレーションを改善することができる。
我々は、手作業で設計されたいくつかの身体表現から学習する深層学習データ駆動フレームワークを実装した。
評価実験の結果, 生成した表現の人間同型とアニマシーは手作りの表現と異なる認識が得られなかった。
論文 参考訳(メタデータ) (2022-05-02T09:21:39Z) - A trained humanoid robot can perform human-like crossmodal social
attention conflict resolution [13.059378830912912]
本研究は,iCubロボットが人間のような社会的注意反応を表現できるようにするために,視線トリガーによる音声・視覚のクロスモーダル統合という神経ロボティックなパラダイムを採用した。
マスクは、アバターの目以外のすべての顔の視覚的手がかりをカバーするために使用された。
アバターの視線は、不一致状態よりも、聴覚・視覚のコングルーエント状態において、より優れた人間のパフォーマンスで、横断的な社会的な注意を喚起する可能性があることを観察した。
論文 参考訳(メタデータ) (2021-11-02T21:49:52Z) - Modeling User Empathy Elicited by a Robot Storyteller [2.309914459672557]
本稿では,ロボットエージェントとのインタラクション中に引き起こされたユーザ共感をモデル化するための最初のアプローチを提案する。
我々は8つの古典的機械学習モデルと2つのディープラーニングモデルを用いて共感を検出する実験を行った。
XGBoostをベースとした我々の最高性能のアプローチは、ビデオの共感を検出すると精度が69%、AUCが72%に達しました。
論文 参考訳(メタデータ) (2021-07-29T21:56:19Z) - A robot that counts like a child: a developmental model of counting and
pointing [69.26619423111092]
実物を数えることができる新しい神経ロボティクスモデルを導入する。
このモデルにより,エンボディメントと数値認識の相互作用を調べることができる。
トレーニングされたモデルは、アイテムのセットをカウントすることができ、同時にそれらを指し示します。
論文 参考訳(メタデータ) (2020-08-05T21:06:27Z) - Learning Predictive Models From Observation and Interaction [137.77887825854768]
世界との相互作用から予測モデルを学ぶことで、ロボットのようなエージェントが世界がどのように働くかを学ぶことができる。
しかし、複雑なスキルのダイナミクスを捉えるモデルを学ぶことは大きな課題である。
本研究では,人間などの他のエージェントの観察データを用いて,トレーニングセットを増強する手法を提案する。
論文 参考訳(メタデータ) (2019-12-30T01:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。