論文の概要: Reacting like Humans: Incorporating Intrinsic Human Behaviors into NAO
through Sound-Based Reactions for Enhanced Sociability
- arxiv url: http://arxiv.org/abs/2312.07671v1
- Date: Tue, 12 Dec 2023 19:06:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-14 17:48:38.029298
- Title: Reacting like Humans: Incorporating Intrinsic Human Behaviors into NAO
through Sound-Based Reactions for Enhanced Sociability
- Title(参考訳): 人間のように反応する:音による社会性向上による内在的人間行動のNAOへの取り込み
- Authors: Ali Ghadami, Mohammadreza Taghimohammadi, Mohammad Mohammadzadeh,
Mohammad Hosseinipour, Alireza Taheri
- Abstract要約: 人間は考えずに、環境イベントに素早く反応できる。
このような瞬間において、個人は直感的に手を動かし、音の起源に向かって向きを変え、出来事の原因を判断しようとする。
この研究では、環境を感知するマルチモーダルシステムが設計され、突然大きな音が鳴り響くと自然の人間の恐怖反応が現れる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Robots' acceptability among humans and their sociability can be significantly
enhanced by incorporating human-like reactions. Humans can react to
environmental events very quickly and without thinking. An instance where
humans display natural reactions is when they encounter a sudden and loud sound
that startles or frightens them. During such moments, individuals may
instinctively move their hands, turn toward the origin of the sound, and try to
determine the event's cause. This inherent behavior motivated us to explore
this less-studied part of social robotics. In this work, a multi-modal system
composed of an action generator, sound classifier, and YOLO object detector was
designed to sense the environment and, in the presence of sudden loud sounds,
show natural human fear reactions, and finally, locate the fear-causing sound
source in the environment. These unique and valid generated motions and
inferences could imitate intrinsic human reactions and enhance the sociability
of robots. For motion generation, a model based on LSTM and MDN networks was
proposed to synthesize various motions. Also, in the case of sound detection, a
transfer learning model was preferred that used the spectrogram of sound
signals as its input. After developing individual models for sound detection,
motion generation, and image recognition, they were integrated into a
comprehensive fear module that was implemented on the NAO robot. Finally, the
fear module was tested in practical application and two groups of experts and
non-experts filled out a questionnaire to evaluate the performance of the
robot. Given our promising results, this preliminary exploratory research
provides a fresh perspective on social robotics and could be a starting point
for modeling intrinsic human behaviors and emotions in robots.
- Abstract(参考訳): ロボットの人間に対する受容性と社会性は、人間のような反応を取り入れることで著しく向上することができる。
人間は考えずに、環境イベントに素早く反応できる。
人間が自然反応を見せる例は、突然大きな音に遭遇し、彼らを驚かせたり怖がらせたりする。
そのような瞬間の間、個人は本能的に手を動かし、音の起源に向かって向きを変え、出来事の原因を判断しようとする。
この固有の行動は、この研究の少ない社会ロボティクスを探求する動機となった。
本研究では, 動作発生器, 音響分類器, YOLOオブジェクト検出器から構成されるマルチモーダルシステムを用いて, 環境を感知し, 突然の音の存在下, 自然の人間の恐怖反応を示し, そして, 環境中の恐怖を感知する音源を特定する。
これらのユニークで有効な動きと推論は、人間の内在的な反応を模倣し、ロボットの社交性を高める。
動作生成のために,LSTMとMDNネットワークに基づくモデルを提案し,様々な動作を合成した。
また,音響検出の場合,音響信号のスペクトログラムを入力とした伝達学習モデルが好まれる。
音響検出、モーション生成、画像認識の個別モデルを開発した後、NAOロボットに実装された総合的な恐怖モジュールに統合された。
最後に、この恐怖モジュールを実用的にテストし、専門家と非専門家の2つのグループが、ロボットの性能を評価するためのアンケートに答えた。
われわれの期待する結果を踏まえて、この予備的な探索研究は、社会ロボティクスに新たな視点を与え、ロボットに固有の人間の行動や感情をモデル化するための出発点となるかもしれない。
関連論文リスト
- ReGenNet: Towards Human Action-Reaction Synthesis [87.57721371471536]
我々は、人間と人間の相互作用の非対称、動的、同期、および詳細な性質を分析する。
本研究では,人間の行動に条件付けされた人間の反応を生成するための,最初のマルチセットヒト行動反応ベンチマークを提案する。
論文 参考訳(メタデータ) (2024-03-18T15:33:06Z) - Robot Interaction Behavior Generation based on Social Motion Forecasting for Human-Robot Interaction [9.806227900768926]
本稿では,共有ロボット表現空間における社会的動き予測のモデル化を提案する。
ECHOは上記の共有空間で活動し、社会的シナリオで遭遇したエージェントの将来の動きを予測する。
我々は,多対人動作予測タスクにおけるモデルの評価を行い,最先端の性能を大きなマージンで獲得する。
論文 参考訳(メタデータ) (2024-02-07T11:37:14Z) - Habitat 3.0: A Co-Habitat for Humans, Avatars and Robots [119.55240471433302]
Habitat 3.0は、家庭環境における協調ロボットタスクを研究するためのシミュレーションプラットフォームである。
複雑な変形可能な体と外観と運動の多様性をモデル化する際の課題に対処する。
Human-in-the-loopインフラストラクチャは、マウス/キーボードまたはVRインターフェースを介してシミュレーションされたロボットとの実際のヒューマンインタラクションを可能にする。
論文 参考訳(メタデータ) (2023-10-19T17:29:17Z) - Learning Latent Representations to Co-Adapt to Humans [12.71953776723672]
非定常的な人間はロボット学習者に挑戦しています。
本稿では,ロボットが動的人間と協調して適応できるアルゴリズム形式について紹介する。
論文 参考訳(メタデータ) (2022-12-19T16:19:24Z) - I am Only Happy When There is Light: The Impact of Environmental Changes
on Affective Facial Expressions Recognition [65.69256728493015]
本研究では,異なる画像条件が人間の表情からの覚醒の認識に与える影響について検討した。
以上の結果から,人間の感情状態の解釈が肯定的,否定的に大きく異なることが示唆された。
論文 参考訳(メタデータ) (2022-10-28T16:28:26Z) - Data-driven emotional body language generation for social robotics [58.88028813371423]
社会ロボティクスでは、人間型ロボットに感情の身体的表現を生成する能力を与えることで、人間とロボットの相互作用とコラボレーションを改善することができる。
我々は、手作業で設計されたいくつかの身体表現から学習する深層学習データ駆動フレームワークを実装した。
評価実験の結果, 生成した表現の人間同型とアニマシーは手作りの表現と異なる認識が得られなかった。
論文 参考訳(メタデータ) (2022-05-02T09:21:39Z) - Synthesis and Execution of Communicative Robotic Movements with
Generative Adversarial Networks [59.098560311521034]
我々は、繊細な物体を操作する際に人間が採用するのと同じキネマティクス変調を2つの異なるロボットプラットフォームに転送する方法に焦点を当てる。
我々は、ロボットのエンドエフェクターが採用する速度プロファイルを、異なる特徴を持つ物体を輸送する際に人間が何をするかに触発されて調整する。
我々は、人体キネマティクスの例を用いて訓練され、それらを一般化し、新しい有意義な速度プロファイルを生成する、新しいジェネレーティブ・アドバイサル・ネットワークアーキテクチャを利用する。
論文 参考訳(メタデータ) (2022-03-29T15:03:05Z) - Self-supervised reinforcement learning for speaker localisation with the
iCub humanoid robot [58.2026611111328]
人の顔を見ることは、ノイズの多い環境での音声のフィルタリングに人間が依存するメカニズムの1つである。
スピーカーに目を向けるロボットを持つことは、挑戦的な環境でのASRのパフォーマンスに恩恵をもたらす可能性がある。
本稿では,人間の初期発達に触発された自己指導型強化学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-11-12T18:02:15Z) - Affect-Driven Modelling of Robot Personality for Collaborative
Human-Robot Interactions [16.40684407420441]
協調的な相互作用は、人間の感情的行動のダイナミクスに適応するために社会ロボットを必要とする。
社会ロボットにおける人格駆動行動生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2020-10-14T16:34:14Z) - Human Perception of Intrinsically Motivated Autonomy in Human-Robot
Interaction [2.485182034310304]
人間に生息する環境でロボットを使用する場合の課題は、人間同士の相互作用によって引き起こされる摂動に対して、魅力的だが堅牢な振る舞いを設計することである。
我々のアイデアは、ロボットに本質的なモチベーション(IM)を持たせることで、新しい状況に対処し、人間以外の真の社会的存在として現れるようにすることです。
本稿では、自律的に生成された振る舞いを相互に比較できる「ロボット学者」による研究設計について述べる。
論文 参考訳(メタデータ) (2020-02-14T09:49:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。