論文の概要: e-Inu: Simulating A Quadruped Robot With Emotional Sentience
- arxiv url: http://arxiv.org/abs/2301.00964v1
- Date: Tue, 3 Jan 2023 06:28:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-04 15:33:45.535331
- Title: e-Inu: Simulating A Quadruped Robot With Emotional Sentience
- Title(参考訳): e-inu:感情感覚で四足ロボットをシミュレートする
- Authors: Abhiruph Chakravarty, Jatin Karthik Tripathy, Sibi Chakkaravarthy S,
Aswani Kumar Cherukuri, S. Anitha, Firuz Kamalov, Annapurna Jonnalagadda
- Abstract要約: 本稿では,人間の感情を検知・理解できるロボットの理解と仮想シミュレーションについて論じる。
我々は、強化学習とソフトウェア工学の概念を組み合わせて、感情を理解できる四足歩行ロボットをシミュレートする。
ビデオ感情検出システムは、99.66%の精度で、ほぼ芸術の状況に匹敵する結果を生み出した。
- 参考スコア(独自算出の注目度): 4.15623340386296
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Quadruped robots are currently used in industrial robotics as mechanical aid
to automate several routine tasks. However, presently, the usage of such a
robot in a domestic setting is still very much a part of the research. This
paper discusses the understanding and virtual simulation of such a robot
capable of detecting and understanding human emotions, generating its gait, and
responding via sounds and expression on a screen. To this end, we use a
combination of reinforcement learning and software engineering concepts to
simulate a quadruped robot that can understand emotions, navigate through
various terrains and detect sound sources, and respond to emotions using
audio-visual feedback. This paper aims to establish the framework of simulating
a quadruped robot that is emotionally intelligent and can primarily respond to
audio-visual stimuli using motor or audio response. The emotion detection from
the speech was not as performant as ERANNs or Zeta Policy learning, still
managing an accuracy of 63.5%. The video emotion detection system produced
results that are almost at par with the state of the art, with an accuracy of
99.66%. Due to its "on-policy" learning process, the PPO algorithm was
extremely rapid to learn, allowing the simulated dog to demonstrate a
remarkably seamless gait across the different cadences and variations. This
enabled the quadruped robot to respond to generated stimuli, allowing us to
conclude that it functions as predicted and satisfies the aim of this work.
- Abstract(参考訳): 四足ロボットは現在、いくつかのルーチンタスクを自動化する機械補助として産業用ロボットで使用されている。
しかし、現在、家庭環境におけるそのようなロボットの使用は研究の一部となっている。
本稿では,人間の感情の検出と理解,歩行の生成,画面上の音と表情による応答が可能なロボットの理解と仮想シミュレーションについて述べる。
この目的のために、強化学習とソフトウェア工学の概念を組み合わせることで、感情を理解し、様々な地形をナビゲートし、音源を検出し、音声視覚フィードバックを用いて感情に反応する四足歩行ロボットをシミュレートする。
本稿では、感情的に知性があり、主に運動や音声による視覚刺激に反応できる四足歩行ロボットのシミュレーションの枠組みを確立することを目的とする。
音声からの感情検出は、 eranns や zeta policy learning ほど高性能ではなく、63.5%の精度を維持していた。
ビデオ感情検出システムは、精度99.66%の精度で、芸術の水準にほぼ匹敵する結果を生み出した。
の学習プロセスのため、PPOアルゴリズムは非常に高速に学習でき、シミュレートされた犬は異なるケイデンスやバリエーションに対して驚くほどシームレスな歩行を見せることができた。
これにより、四足歩行ロボットは生成された刺激に反応し、予測通りに機能し、この作業の目的を満たすと結論付けることができる。
関連論文リスト
- Moto: Latent Motion Token as the Bridging Language for Robot Manipulation [66.18557528695924]
我々はMotoを紹介する。Motoは、映像コンテンツをラテントモーションTokenizerでラテントモーションTokenシーケンスに変換する。
我々は、モーショントークンによるMoto-GPTの事前学習を行い、多様な視覚的動きの知識を捉えることができる。
実際のロボット動作に先立って学習した動きを転送するために、潜伏した動きのトークン予測と実際のロボット制御をシームレスにブリッジするコファインチューニング戦略を実装した。
論文 参考訳(メタデータ) (2024-12-05T18:57:04Z) - RoboScript: Code Generation for Free-Form Manipulation Tasks across Real
and Simulation [77.41969287400977]
本稿では,コード生成を利用したデプロイ可能なロボット操作パイプラインのためのプラットフォームである textbfRobotScript を提案する。
自由形自然言語におけるロボット操作タスクのためのコード生成ベンチマークも提案する。
我々は,Franka と UR5 のロボットアームを含む,複数のロボットエボディメントにまたがるコード生成フレームワークの適応性を実証した。
論文 参考訳(メタデータ) (2024-02-22T15:12:00Z) - A Human-Robot Mutual Learning System with Affect-Grounded Language
Acquisition and Differential Outcomes Training [0.1812164955222814]
本稿では,ロボットのホメオスタティックなニーズを識別するための,人間とロボットのインタラクション・セットアップを提案する。
我々は,ロボットが内部ニーズに特有のフィードバックを提供する,差分結果学習プロトコルを採用した。
我々は、DOTが人間の学習効率を高めることができるという証拠を発見し、それによってより効率的なロボット言語習得を可能にした。
論文 参考訳(メタデータ) (2023-10-20T09:41:31Z) - Robot Learning with Sensorimotor Pre-training [98.7755895548928]
ロボット工学のための自己教師型感覚運動器事前学習手法を提案する。
我々のモデルはRTTと呼ばれ、センサモレータトークンのシーケンスで動作するトランスフォーマーである。
感覚運動の事前学習は、ゼロからトレーニングを一貫して上回り、優れたスケーリング特性を持ち、さまざまなタスク、環境、ロボット間での移動を可能にしている。
論文 参考訳(メタデータ) (2023-06-16T17:58:10Z) - Knowledge-Driven Robot Program Synthesis from Human VR Demonstrations [16.321053835017942]
バーチャルリアリティ(VR)におけるヒューマンタスクの実演から実行可能なロボット制御プログラムを自動生成するシステムを提案する。
我々は、人間のVRデモを意味論的に解釈するために、常識知識とゲームエンジンに基づく物理を利用する。
ロボットショッピングアシスタントにおける力覚的フェッチ・アンド・プレイスという文脈でのアプローチを実証する。
論文 参考訳(メタデータ) (2023-06-05T09:37:53Z) - Synthesis and Execution of Communicative Robotic Movements with
Generative Adversarial Networks [59.098560311521034]
我々は、繊細な物体を操作する際に人間が採用するのと同じキネマティクス変調を2つの異なるロボットプラットフォームに転送する方法に焦点を当てる。
我々は、ロボットのエンドエフェクターが採用する速度プロファイルを、異なる特徴を持つ物体を輸送する際に人間が何をするかに触発されて調整する。
我々は、人体キネマティクスの例を用いて訓練され、それらを一般化し、新しい有意義な速度プロファイルを生成する、新しいジェネレーティブ・アドバイサル・ネットワークアーキテクチャを利用する。
論文 参考訳(メタデータ) (2022-03-29T15:03:05Z) - Robot Sound Interpretation: Learning Visual-Audio Representations for
Voice-Controlled Robots [0.0]
画像と音声コマンドを最小限の監督で関連付ける表現を学習する。
この表現を用いて、強化学習を用いてロボットタスクを学習する本質的な報酬関数を生成する。
提案手法は, 様々な音響タイプやロボット作業において, 従来の作業よりも優れていたことを示す。
論文 参考訳(メタデータ) (2021-09-07T02:26:54Z) - URoboSim -- An Episodic Simulation Framework for Prospective Reasoning
in Robotic Agents [18.869243389210492]
URoboSimは、実際にこのタスクを実行する前に、ロボットが精神シミュレーションとしてタスクを実行できるロボットシミュレータです。
URoboSimの精神シミュレーションによる能力を示し、機械学習のためのデータを生成し、実際のロボットの信念状態として利用します。
論文 参考訳(メタデータ) (2020-12-08T14:23:24Z) - Self-supervised reinforcement learning for speaker localisation with the
iCub humanoid robot [58.2026611111328]
人の顔を見ることは、ノイズの多い環境での音声のフィルタリングに人間が依存するメカニズムの1つである。
スピーカーに目を向けるロボットを持つことは、挑戦的な環境でのASRのパフォーマンスに恩恵をもたらす可能性がある。
本稿では,人間の初期発達に触発された自己指導型強化学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-11-12T18:02:15Z) - SAPIEN: A SimulAted Part-based Interactive ENvironment [77.4739790629284]
SAPIENは現実的で物理に富んだシミュレートされた環境であり、音声オブジェクトのための大規模なセットをホストしている。
部品検出と動作特性認識のための最先端の視覚アルゴリズムの評価を行い,ロボットインタラクションタスクの実証を行った。
論文 参考訳(メタデータ) (2020-03-19T00:11:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。