論文の概要: A Multimodal Neural Network for Recognizing Subjective Self-Disclosure Towards Social Robots
- arxiv url: http://arxiv.org/abs/2508.10828v1
- Date: Thu, 14 Aug 2025 16:50:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-15 22:24:48.420044
- Title: A Multimodal Neural Network for Recognizing Subjective Self-Disclosure Towards Social Robots
- Title(参考訳): 社会ロボットに向けた主観的自己開示認識のためのマルチモーダルニューラルネットワーク
- Authors: Henry Powell, Guy Laban, Emily S. Cross,
- Abstract要約: 我々は、感情認識文献のモデルに基づく、カスタムマルチモーダルアテンションネットワークを開発する。
我々は,新たな損失関数であるクロスエントロピー損失の尺度を構築し,この問題の分類版と回帰版の両方を改善した。
- 参考スコア(独自算出の注目度): 3.786116485837376
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Subjective self-disclosure is an important feature of human social interaction. While much has been done in the social and behavioural literature to characterise the features and consequences of subjective self-disclosure, little work has been done thus far to develop computational systems that are able to accurately model it. Even less work has been done that attempts to model specifically how human interactants self-disclose with robotic partners. It is becoming more pressing as we require social robots to work in conjunction with and establish relationships with humans in various social settings. In this paper, our aim is to develop a custom multimodal attention network based on models from the emotion recognition literature, training this model on a large self-collected self-disclosure video corpus, and constructing a new loss function, the scale preserving cross entropy loss, that improves upon both classification and regression versions of this problem. Our results show that the best performing model, trained with our novel loss function, achieves an F1 score of 0.83, an improvement of 0.48 from the best baseline model. This result makes significant headway in the aim of allowing social robots to pick up on an interaction partner's self-disclosures, an ability that will be essential in social robots with social cognition.
- Abstract(参考訳): 主観的自己開示は、人間の社会的相互作用の重要な特徴である。
主観的自己開示の特徴と結果を特徴付けるために、社会的・行動的な文献で多くのことが行われてきたが、それを正確にモデル化できる計算システムを開発するために、これまではほとんど研究されていない。
ロボットのパートナーと人間がどのように自己開示するかをモデル化しようとする努力は、さらに少ない。
ソーシャルロボットは、さまざまな社会的環境の中で人間と関係を築き上げ、連携させることが求められている。
本研究の目的は,感情認識文学のモデルに基づいて,このモデルを大規模自己収集型自己開示ビデオコーパスで訓練し,新たな損失関数の構築,クロスエントロピー損失のスケール保存,この問題の分類版と回帰版の両方を改善した,カスタムマルチモーダルアテンションネットワークを開発することである。
この結果から,新たな損失関数で学習した最高の性能モデルでは,F1スコアが0.83となり,ベースラインモデルから0.48の改善が得られた。
この結果は、社会的認知を持つ社会ロボットにとって必須の能力である、対話相手の自己開示をソーシャルロボットが受け取れるようにするための大きな道のりとなっている。
関連論文リスト
- SIME: Enhancing Policy Self-Improvement with Modal-level Exploration [49.86173021151849]
自己改善を成功させる鍵は、モーダルレベルの探索とデータ選択である。
ポリシー実行中にモーダルレベルの探索機構を組み込むことで、ロボットはより多様なマルチモーダルインタラクションを生成できる。
シミュレーションベンチマークと実世界実験の両方において,効果的なロボット自己改善の実証に成功した。
論文 参考訳(メタデータ) (2025-05-02T17:13:03Z) - The Human Robot Social Interaction (HSRI) Dataset: Benchmarking Foundational Models' Social Reasoning [49.32390524168273]
本研究は,実世界のソーシャルインタラクションにおいて,人工知能(AI)エージェントの社会的推論を促進することを目的としている。
我々は、言語モデル(LM)と基礎モデル(FM)の能力をベンチマークするために、大規模な実世界のヒューマンロボット社会インタラクション(HSRI)データセットを導入する。
私たちのデータセットは、400以上の現実世界の人間のソーシャルロボットインタラクションビデオと10K以上のアノテーションで構成され、ロボットの社会的エラー、能力、合理性、修正行動の詳細を記述しています。
論文 参考訳(メタデータ) (2025-04-07T06:27:02Z) - Nadine: An LLM-driven Intelligent Social Robot with Affective Capabilities and Human-like Memory [3.3906920519220054]
Nadineプラットフォームのためのインテリジェントで堅牢なソーシャルロボティクスシステムを開発するための当社のアプローチについて説明する。
我々は,Large Language Models(LLMs)を統合し,これらのモデルの強力な推論と命令追従機能を巧みに活用することで,これを実現する。
このアプローチは、人間のような長期記憶や洗練された感情評価を実装しない、現在最先端のLCMベースのエージェントと比較して、斬新である。
論文 参考訳(メタデータ) (2024-05-30T15:55:41Z) - Real-time Addressee Estimation: Deployment of a Deep-Learning Model on
the iCub Robot [52.277579221741746]
住所推定は、社会ロボットが人間とスムーズに対話するために必要なスキルである。
人間の知覚スキルにインスパイアされたディープラーニングモデルは、iCubロボットに設計、訓練、デプロイされる。
本研究では,人間-ロボットのリアルタイムインタラクションにおいて,そのような実装の手順とモデルの性能について述べる。
論文 参考訳(メタデータ) (2023-11-09T13:01:21Z) - Data-driven emotional body language generation for social robotics [58.88028813371423]
社会ロボティクスでは、人間型ロボットに感情の身体的表現を生成する能力を与えることで、人間とロボットの相互作用とコラボレーションを改善することができる。
我々は、手作業で設計されたいくつかの身体表現から学習する深層学習データ駆動フレームワークを実装した。
評価実験の結果, 生成した表現の人間同型とアニマシーは手作りの表現と異なる認識が得られなかった。
論文 参考訳(メタデータ) (2022-05-02T09:21:39Z) - A General, Evolution-Inspired Reward Function for Social Robotics [0.0]
本稿では,ソーシャルロボティクスにおける強化学習エージェントの展開に必要なリアルタイムかつ高密度な報酬機能を提供するメカニズムとして,ソーシャル・リワード機能を提案する。
ソーシャル・リワード・ファンクション(Social Reward Function)は、単純で安定的で文化に依存しない報酬機能を提供することを目的として、人間の遺伝的に与えられた社会的知覚能力を忠実に模倣するように設計されている。
論文 参考訳(メタデータ) (2022-02-01T18:05:31Z) - Cognitive architecture aided by working-memory for self-supervised
multi-modal humans recognition [54.749127627191655]
人間パートナーを認識する能力は、パーソナライズされた長期的な人間とロボットの相互作用を構築するための重要な社会的スキルです。
ディープラーニングネットワークは最先端の結果を達成し,そのような課題に対処するための適切なツールであることが実証された。
1つの解決策は、ロボットに自己スーパービジョンで直接の感覚データから学習させることである。
論文 参考訳(メタデータ) (2021-03-16T13:50:24Z) - A Graph Neural Network to Model User Comfort in Robot Navigation [1.6751551703600527]
本稿では,人やロボットの動きを考慮し,グラフニューラルネットワークを用いてロボットの破壊をモデル化する。
モデルはデータセットで人間に近いパフォーマンスを訓練した。
論文 参考訳(メタデータ) (2021-02-17T16:44:52Z) - Affect-Driven Modelling of Robot Personality for Collaborative
Human-Robot Interactions [16.40684407420441]
協調的な相互作用は、人間の感情的行動のダイナミクスに適応するために社会ロボットを必要とする。
社会ロボットにおける人格駆動行動生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2020-10-14T16:34:14Z) - Joint Mind Modeling for Explanation Generation in Complex Human-Robot
Collaborative Tasks [83.37025218216888]
本稿では,人間とロボットのコラボレーションにおいて,人間のようなコミュニケーションを実現するための新しい説明可能なAI(XAI)フレームワークを提案する。
ロボットは、人間のユーザの階層的なマインドモデルを構築し、コミュニケーションの一形態として自身のマインドの説明を生成する。
その結果,提案手法はロボットの協調動作性能とユーザ認識を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2020-07-24T23:35:03Z) - Hyperparameters optimization for Deep Learning based emotion prediction
for Human Robot Interaction [0.2549905572365809]
インセプションモジュールをベースとした畳み込みニューラルネットワークアーキテクチャを提案する。
モデルは人型ロボットNAOにリアルタイムに実装され、モデルの堅牢性を評価する。
論文 参考訳(メタデータ) (2020-01-12T05:25:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。