論文の概要: Reacting like Humans: Incorporating Intrinsic Human Behaviors into NAO
through Sound-Based Reactions for Enhanced Sociability
- arxiv url: http://arxiv.org/abs/2312.07671v1
- Date: Tue, 12 Dec 2023 19:06:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-14 17:48:38.029298
- Title: Reacting like Humans: Incorporating Intrinsic Human Behaviors into NAO
through Sound-Based Reactions for Enhanced Sociability
- Title(参考訳): 人間のように反応する:音による社会性向上による内在的人間行動のNAOへの取り込み
- Authors: Ali Ghadami, Mohammadreza Taghimohammadi, Mohammad Mohammadzadeh,
Mohammad Hosseinipour, Alireza Taheri
- Abstract要約: 人間は考えずに、環境イベントに素早く反応できる。
このような瞬間において、個人は直感的に手を動かし、音の起源に向かって向きを変え、出来事の原因を判断しようとする。
この研究では、環境を感知するマルチモーダルシステムが設計され、突然大きな音が鳴り響くと自然の人間の恐怖反応が現れる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Robots' acceptability among humans and their sociability can be significantly
enhanced by incorporating human-like reactions. Humans can react to
environmental events very quickly and without thinking. An instance where
humans display natural reactions is when they encounter a sudden and loud sound
that startles or frightens them. During such moments, individuals may
instinctively move their hands, turn toward the origin of the sound, and try to
determine the event's cause. This inherent behavior motivated us to explore
this less-studied part of social robotics. In this work, a multi-modal system
composed of an action generator, sound classifier, and YOLO object detector was
designed to sense the environment and, in the presence of sudden loud sounds,
show natural human fear reactions, and finally, locate the fear-causing sound
source in the environment. These unique and valid generated motions and
inferences could imitate intrinsic human reactions and enhance the sociability
of robots. For motion generation, a model based on LSTM and MDN networks was
proposed to synthesize various motions. Also, in the case of sound detection, a
transfer learning model was preferred that used the spectrogram of sound
signals as its input. After developing individual models for sound detection,
motion generation, and image recognition, they were integrated into a
comprehensive fear module that was implemented on the NAO robot. Finally, the
fear module was tested in practical application and two groups of experts and
non-experts filled out a questionnaire to evaluate the performance of the
robot. Given our promising results, this preliminary exploratory research
provides a fresh perspective on social robotics and could be a starting point
for modeling intrinsic human behaviors and emotions in robots.
- Abstract(参考訳): ロボットの人間に対する受容性と社会性は、人間のような反応を取り入れることで著しく向上することができる。
人間は考えずに、環境イベントに素早く反応できる。
人間が自然反応を見せる例は、突然大きな音に遭遇し、彼らを驚かせたり怖がらせたりする。
そのような瞬間の間、個人は本能的に手を動かし、音の起源に向かって向きを変え、出来事の原因を判断しようとする。
この固有の行動は、この研究の少ない社会ロボティクスを探求する動機となった。
本研究では, 動作発生器, 音響分類器, YOLOオブジェクト検出器から構成されるマルチモーダルシステムを用いて, 環境を感知し, 突然の音の存在下, 自然の人間の恐怖反応を示し, そして, 環境中の恐怖を感知する音源を特定する。
これらのユニークで有効な動きと推論は、人間の内在的な反応を模倣し、ロボットの社交性を高める。
動作生成のために,LSTMとMDNネットワークに基づくモデルを提案し,様々な動作を合成した。
また,音響検出の場合,音響信号のスペクトログラムを入力とした伝達学習モデルが好まれる。
音響検出、モーション生成、画像認識の個別モデルを開発した後、NAOロボットに実装された総合的な恐怖モジュールに統合された。
最後に、この恐怖モジュールを実用的にテストし、専門家と非専門家の2つのグループが、ロボットの性能を評価するためのアンケートに答えた。
われわれの期待する結果を踏まえて、この予備的な探索研究は、社会ロボティクスに新たな視点を与え、ロボットに固有の人間の行動や感情をモデル化するための出発点となるかもしれない。
関連論文リスト
- Imitation of human motion achieves natural head movements for humanoid robots in an active-speaker detection task [2.8220015774219567]
頭の動きは社会的人間と人間の相互作用に不可欠である。
そこで本研究では,直型ヒューマノイドロボットの頭部運動生成に生成型AIパイプラインを用いた。
その結果,会話中の話者を積極的に追跡しながら,人間の頭部の動きを自然に模倣することに成功した。
論文 参考訳(メタデータ) (2024-07-16T17:08:40Z) - ReGenNet: Towards Human Action-Reaction Synthesis [87.57721371471536]
我々は、人間と人間の相互作用の非対称、動的、同期、および詳細な性質を分析する。
本研究では,人間の行動に条件付けされた人間の反応を生成するための,最初のマルチセットヒト行動反応ベンチマークを提案する。
論文 参考訳(メタデータ) (2024-03-18T15:33:06Z) - Robot Interaction Behavior Generation based on Social Motion Forecasting for Human-Robot Interaction [9.806227900768926]
本稿では,共有ロボット表現空間における社会的動き予測のモデル化を提案する。
ECHOは上記の共有空間で活動し、社会的シナリオで遭遇したエージェントの将来の動きを予測する。
我々は,多対人動作予測タスクにおけるモデルの評価を行い,最先端の性能を大きなマージンで獲得する。
論文 参考訳(メタデータ) (2024-02-07T11:37:14Z) - e-Inu: Simulating A Quadruped Robot With Emotional Sentience [4.15623340386296]
本稿では,人間の感情を検知・理解できるロボットの理解と仮想シミュレーションについて論じる。
我々は、強化学習とソフトウェア工学の概念を組み合わせて、感情を理解できる四足歩行ロボットをシミュレートする。
ビデオ感情検出システムは、99.66%の精度で、ほぼ芸術の状況に匹敵する結果を生み出した。
論文 参考訳(メタデータ) (2023-01-03T06:28:45Z) - HERD: Continuous Human-to-Robot Evolution for Learning from Human
Demonstration [57.045140028275036]
本研究では,マイクロ進化的強化学習を用いて,操作スキルを人間からロボットに伝達可能であることを示す。
本稿では,ロボットの進化経路とポリシーを協調的に最適化する多次元進化経路探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-08T15:56:13Z) - Data-driven emotional body language generation for social robotics [58.88028813371423]
社会ロボティクスでは、人間型ロボットに感情の身体的表現を生成する能力を与えることで、人間とロボットの相互作用とコラボレーションを改善することができる。
我々は、手作業で設計されたいくつかの身体表現から学習する深層学習データ駆動フレームワークを実装した。
評価実験の結果, 生成した表現の人間同型とアニマシーは手作りの表現と異なる認識が得られなかった。
論文 参考訳(メタデータ) (2022-05-02T09:21:39Z) - Model Predictive Control for Fluid Human-to-Robot Handovers [50.72520769938633]
人間の快適さを考慮に入れた計画運動は、人間ロボットのハンドオーバプロセスの一部ではない。
本稿では,効率的なモデル予測制御フレームワークを用いてスムーズな動きを生成することを提案する。
ユーザ数名の多様なオブジェクトに対して,人間とロボットのハンドオーバ実験を行う。
論文 参考訳(メタデータ) (2022-03-31T23:08:20Z) - Synthesis and Execution of Communicative Robotic Movements with
Generative Adversarial Networks [59.098560311521034]
我々は、繊細な物体を操作する際に人間が採用するのと同じキネマティクス変調を2つの異なるロボットプラットフォームに転送する方法に焦点を当てる。
我々は、ロボットのエンドエフェクターが採用する速度プロファイルを、異なる特徴を持つ物体を輸送する際に人間が何をするかに触発されて調整する。
我々は、人体キネマティクスの例を用いて訓練され、それらを一般化し、新しい有意義な速度プロファイルを生成する、新しいジェネレーティブ・アドバイサル・ネットワークアーキテクチャを利用する。
論文 参考訳(メタデータ) (2022-03-29T15:03:05Z) - Self-supervised reinforcement learning for speaker localisation with the
iCub humanoid robot [58.2026611111328]
人の顔を見ることは、ノイズの多い環境での音声のフィルタリングに人間が依存するメカニズムの1つである。
スピーカーに目を向けるロボットを持つことは、挑戦的な環境でのASRのパフォーマンスに恩恵をもたらす可能性がある。
本稿では,人間の初期発達に触発された自己指導型強化学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-11-12T18:02:15Z) - Affect-Driven Modelling of Robot Personality for Collaborative
Human-Robot Interactions [16.40684407420441]
協調的な相互作用は、人間の感情的行動のダイナミクスに適応するために社会ロボットを必要とする。
社会ロボットにおける人格駆動行動生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2020-10-14T16:34:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。