論文の概要: Towards Affect-Adaptive Human-Robot Interaction: A Protocol for Multimodal Dataset Collection on Social Anxiety
- arxiv url: http://arxiv.org/abs/2511.13530v1
- Date: Mon, 17 Nov 2025 16:03:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:25.350403
- Title: Towards Affect-Adaptive Human-Robot Interaction: A Protocol for Multimodal Dataset Collection on Social Anxiety
- Title(参考訳): Affect-Adaptive Human-Robot Interaction: A Protocol for Multimodal Dataset Collection on Social Anxiety
- Authors: Vesna Poprcova, Iulia Lefter, Matthias Wieser, Martijn Warnier, Frances Brazier,
- Abstract要約: 社会的不安は、対人関係や社会的機能に影響を及ぼす一般的な状態である。
人工知能と社会ロボティクスの最近の進歩は、人間とロボットの相互作用の文脈における社会的不安を調べる新たな機会を提供する。
社会的不安に関連する感情状態や行動の正確な検出には、マルチモーダルデータセットが必要である。
本稿では,人間とロボットのインタラクションコンテキストにおける社会的不安を反映したマルチモーダルデータセット収集プロトコルを提案する。
- 参考スコア(独自算出の注目度): 0.127561562669417
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Social anxiety is a prevalent condition that affects interpersonal interactions and social functioning. Recent advances in artificial intelligence and social robotics offer new opportunities to examine social anxiety in the human-robot interaction context. Accurate detection of affective states and behaviours associated with social anxiety requires multimodal datasets, where each signal modality provides complementary insights into its manifestations. However, such datasets remain scarce, limiting progress in both research and applications. To address this, this paper presents a protocol for multimodal dataset collection designed to reflect social anxiety in a human-robot interaction context. The dataset will consist of synchronised audio, video, and physiological recordings acquired from at least 70 participants, grouped according to their level of social anxiety, as they engage in approximately 10-minute interactive Wizard-of-Oz role-play scenarios with the Furhat social robot under controlled experimental conditions. In addition to multimodal data, the dataset will be enriched with contextual data providing deeper insight into individual variability in social anxiety responses. This work can contribute to research on affect-adaptive human-robot interaction by providing support for robust multimodal detection of social anxiety.
- Abstract(参考訳): 社会的不安は、対人関係や社会的機能に影響を及ぼす一般的な状態である。
人工知能と社会ロボティクスの最近の進歩は、人間とロボットの相互作用の文脈における社会的不安を調べる新たな機会を提供する。
社会的不安に関連する感情状態や行動の正確な検出には、複数のモーダルデータセットが必要である。
しかし、そのようなデータセットは依然として乏しく、研究と応用の両方の進歩を制限している。
そこで本研究では,人間とロボットのインタラクションコンテキストにおける社会的不安を反映したマルチモーダルデータセット収集プロトコルを提案する。
データセットは、少なくとも70人の参加者から取得した音声、ビデオ、生理的記録を、その社会的不安レベルに応じてグループ化し、Furhatソーシャルロボットと約10分間の対話的なWizard-of-Ozロールプレイシナリオを、制御された実験条件下で行う。
マルチモーダルデータに加えて、データセットには、社会的不安反応における個人の変動性に関する深い洞察を提供するコンテキストデータが組み込まれている。
この研究は、社会的不安の堅牢なマルチモーダル検出を支援することによって、感情適応型人間-ロボット相互作用の研究に寄与することができる。
関連論文リスト
- The Social Context of Human-Robot Interactions [1.9833681107184533]
本研究では,人間とロボットの相互作用の社会的文脈を記述する概念モデルを提案する。
我々は,対話の計画を立て,ロボットの行動モデルを開発し,対話がおこなわれた後に洞察を得ることのできる,社会的文脈のさまざまな属性について論じる。
論文 参考訳(メタデータ) (2025-08-19T16:15:58Z) - Socially Pertinent Robots in Gerontological Healthcare [81.67026771075037]
本論文は,パリの保育所における患者と同伴者による2つの実験を通じて,社会的・対話的相互作用能力を備えたフルサイズのヒューマノイドロボットを用いて,この疑問に部分的に答えようとする試みである。
特に、ロボットの知覚とアクションスキルが環境の雑多さに対して堅牢であり、さまざまなインタラクションを扱うために柔軟である場合、ユーザーはこの技術を受け入れる。
論文 参考訳(メタデータ) (2024-04-11T08:43:37Z) - SOTOPIA: Interactive Evaluation for Social Intelligence in Language Agents [107.4138224020773]
人工エージェントと人間との複雑な社会的相互作用をシミュレートするオープンエンド環境であるSOTOPIAを提案する。
エージェントは、複雑な社会的目標を達成するために協調し、協力し、交換し、互いに競い合う。
GPT-4は,人間よりも目標達成率が著しく低く,社会的常識的推論や戦略的コミュニケーション能力の発揮に苦慮していることがわかった。
論文 参考訳(メタデータ) (2023-10-18T02:27:01Z) - Wearable Sensor-based Multimodal Physiological Responses of Socially
Anxious Individuals across Social Contexts [7.85990334927929]
本研究では,様々な社会的文脈で生理的応答を評価する実験を対象とし,受動的に収集したデータを用いて実験を行った。
以上の結果から,社会的文脈は社会的相,集団規模,社会的脅威のレベルよりも確実に識別可能であることが示唆された。
論文 参考訳(メタデータ) (2023-04-03T18:34:54Z) - Co-Located Human-Human Interaction Analysis using Nonverbal Cues: A
Survey [71.43956423427397]
本研究の目的は,非言語的キューと計算手法を同定し,効果的な性能を実現することである。
この調査は、最も広い範囲の社会現象と相互作用設定を巻き込むことによって、相手と異なる。
もっともよく使われる非言語キュー、計算方法、相互作用環境、センシングアプローチは、それぞれマイクとカメラを備えた3,4人で構成される会話活動、ベクターマシンのサポート、ミーティングである。
論文 参考訳(メタデータ) (2022-07-20T13:37:57Z) - Data-driven emotional body language generation for social robotics [58.88028813371423]
社会ロボティクスでは、人間型ロボットに感情の身体的表現を生成する能力を与えることで、人間とロボットの相互作用とコラボレーションを改善することができる。
我々は、手作業で設計されたいくつかの身体表現から学習する深層学習データ駆動フレームワークを実装した。
評価実験の結果, 生成した表現の人間同型とアニマシーは手作りの表現と異なる認識が得られなかった。
論文 参考訳(メタデータ) (2022-05-02T09:21:39Z) - Forecasting Nonverbal Social Signals during Dyadic Interactions with
Generative Adversarial Neural Networks [0.0]
社会的相互作用の成功は、非言語的知覚と行動機構の相互作用と密接に結びついている。
非言語的ジェスチャーは、発話を強調したり意図を示す能力を持つ社会ロボットを養うことが期待されている。
我々の研究は、社会的相互作用における人間の振舞いのモデル化に光を当てている。
論文 参考訳(メタデータ) (2021-10-18T15:01:32Z) - PHASE: PHysically-grounded Abstract Social Events for Machine Social
Perception [50.551003004553806]
私たちは、物理的に根拠のある抽象的なソーシャルイベント、フェーズのデータセットを作成します。
フェーズは人間の実験によって検証され、人間は社会出来事において豊かな相互作用を知覚する。
ベースラインモデルとして,最新のフィードフォワードニューラルネットワークよりも優れたベイズ逆計画手法SIMPLEを導入する。
論文 参考訳(メタデータ) (2021-03-02T18:44:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。