論文の概要: NOIR: Neural Signal Operated Intelligent Robots for Everyday Activities
- arxiv url: http://arxiv.org/abs/2311.01454v1
- Date: Thu, 2 Nov 2023 17:59:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-03 12:09:42.138974
- Title: NOIR: Neural Signal Operated Intelligent Robots for Everyday Activities
- Title(参考訳): NOIR: 神経信号で動くインテリジェントなロボット
- Authors: Ruohan Zhang, Sharon Lee, Minjune Hwang, Ayano Hiranaka, Chen Wang,
Wensi Ai, Jin Jie Ryan Tan, Shreya Gupta, Yilun Hao, Gabrael Levine, Ruohan
Gao, Anthony Norcia, Li Fei-Fei, Jiajun Wu
- Abstract要約: 我々は,脳信号を通じてロボットに日常的な活動を指示する汎用知能脳ロボットインタフェースシステムを提案する。
本システムでは, 日常的な生活活動に挑戦する20の取り組みに成功している。
私たちの研究は、人間がロボットと対話する方法を強化し、従来のコミュニケーションチャネルと直接的、神経的なコミュニケーションを置き換えます。
- 参考スコア(独自算出の注目度): 27.77304588531181
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present Neural Signal Operated Intelligent Robots (NOIR), a
general-purpose, intelligent brain-robot interface system that enables humans
to command robots to perform everyday activities through brain signals. Through
this interface, humans communicate their intended objects of interest and
actions to the robots using electroencephalography (EEG). Our novel system
demonstrates success in an expansive array of 20 challenging, everyday
household activities, including cooking, cleaning, personal care, and
entertainment. The effectiveness of the system is improved by its synergistic
integration of robot learning algorithms, allowing for NOIR to adapt to
individual users and predict their intentions. Our work enhances the way humans
interact with robots, replacing traditional channels of interaction with
direct, neural communication. Project website: https://noir-corl.github.io/.
- Abstract(参考訳): 我々は,脳信号を介してロボットに日常の活動を指示する汎用知能脳ロボットインタフェースシステムであるNeural Signal Operated Intelligent Robots(NOIR)を提案する。
このインターフェースを通じて、人間は脳波(EEG)を用いて、意図した関心や行動のオブジェクトをロボットに伝達する。
本システムでは, 料理, 清掃, パーソナルケア, エンターテイメントなど, 日常的な生活活動に挑戦する20の課題が展開されている。
システムの有効性は、ロボット学習アルゴリズムのシナジスティックな統合によって改善され、NOIRは個々のユーザーに適応し、意図を予測することができる。
私たちの仕事は、人間がロボットと対話する方法を強化し、従来のインタラクションチャネルを、直接的な神経コミュニケーションに置き換えます。
プロジェクトウェブサイト: https://noir-corl.github.io/
関連論文リスト
- Imitation of human motion achieves natural head movements for humanoid robots in an active-speaker detection task [2.8220015774219567]
頭の動きは社会的人間と人間の相互作用に不可欠である。
そこで本研究では,直型ヒューマノイドロボットの頭部運動生成に生成型AIパイプラインを用いた。
その結果,会話中の話者を積極的に追跡しながら,人間の頭部の動きを自然に模倣することに成功した。
論文 参考訳(メタデータ) (2024-07-16T17:08:40Z) - Giving Robots a Hand: Learning Generalizable Manipulation with
Eye-in-Hand Human Video Demonstrations [66.47064743686953]
眼内カメラは、視覚に基づくロボット操作において、より優れたサンプル効率と一般化を可能にすることを約束している。
一方、人間がタスクを行うビデオは、ロボット遠隔操作の専門知識を欠いているため、収集コストがずっと安い。
本研究では,広範にラベルのない人間ビデオによるロボット模倣データセットを拡張し,眼球運動ポリシーの一般化を大幅に促進する。
論文 参考訳(メタデータ) (2023-07-12T07:04:53Z) - Self-Improving Robots: End-to-End Autonomous Visuomotor Reinforcement
Learning [54.636562516974884]
模倣と強化学習において、人間の監督コストは、ロボットが訓練できるデータの量を制限する。
本研究では,自己改善型ロボットシステムのための新しい設計手法であるMEDAL++を提案する。
ロボットは、タスクの実施と解除の両方を学ぶことで、自律的にタスクを練習し、同時にデモンストレーションから報酬関数を推論する。
論文 参考訳(メタデータ) (2023-03-02T18:51:38Z) - Body Gesture Recognition to Control a Social Robot [5.557794184787908]
本研究では,人間の身体を自然に利用してロボットと対話できるジェスチャー型言語を提案する。
ニューラルネットワークを用いた新しいジェスチャー検出モデルと、ネットワークをトレーニングするための身体ジェスチャーセットを実行する人間のカスタムデータセットを作成しました。
論文 参考訳(メタデータ) (2022-06-15T13:49:22Z) - Synthesis and Execution of Communicative Robotic Movements with
Generative Adversarial Networks [59.098560311521034]
我々は、繊細な物体を操作する際に人間が採用するのと同じキネマティクス変調を2つの異なるロボットプラットフォームに転送する方法に焦点を当てる。
我々は、ロボットのエンドエフェクターが採用する速度プロファイルを、異なる特徴を持つ物体を輸送する際に人間が何をするかに触発されて調整する。
我々は、人体キネマティクスの例を用いて訓練され、それらを一般化し、新しい有意義な速度プロファイルを生成する、新しいジェネレーティブ・アドバイサル・ネットワークアーキテクチャを利用する。
論文 参考訳(メタデータ) (2022-03-29T15:03:05Z) - Spatial Computing and Intuitive Interaction: Bringing Mixed Reality and
Robotics Together [68.44697646919515]
本稿では,空間コンピューティングを応用し,新しいロボットのユースケースを実現するためのロボットシステムについて述べる。
空間コンピューティングとエゴセントリックな感覚を複合現実感デバイスに組み合わせることで、人間の行動をキャプチャして理解し、それらを空間的な意味を持つ行動に変換することができる。
論文 参考訳(メタデータ) (2022-02-03T10:04:26Z) - A MultiModal Social Robot Toward Personalized Emotion Interaction [1.2183405753834562]
本研究では,ロボットインタラクションポリシーを強化するために,強化学習を伴うマルチモーダルヒューマンロボットインタラクション(HRI)フレームワークを実証する。
目標は、ロボットがより自然で魅力的なHRIフレームワークを作れるように、このフレームワークを社会シナリオに適用することだ。
論文 参考訳(メタデータ) (2021-10-08T00:35:44Z) - Neuroscience-inspired perception-action in robotics: applying active
inference for state estimation, control and self-perception [2.1067139116005595]
神経科学の発見が、ロボット工学における現在の推定と制御アルゴリズムを改善する機会をいかに開放するかについて議論する。
本稿では,実体プラットフォーム上でのこのような計算モデルの開発から得られた実験と教訓を要約する。
論文 参考訳(メタデータ) (2021-05-10T10:59:38Z) - Self-supervised reinforcement learning for speaker localisation with the
iCub humanoid robot [58.2026611111328]
人の顔を見ることは、ノイズの多い環境での音声のフィルタリングに人間が依存するメカニズムの1つである。
スピーカーに目を向けるロボットを持つことは、挑戦的な環境でのASRのパフォーマンスに恩恵をもたらす可能性がある。
本稿では,人間の初期発達に触発された自己指導型強化学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-11-12T18:02:15Z) - Affect-Driven Modelling of Robot Personality for Collaborative
Human-Robot Interactions [16.40684407420441]
協調的な相互作用は、人間の感情的行動のダイナミクスに適応するために社会ロボットを必要とする。
社会ロボットにおける人格駆動行動生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2020-10-14T16:34:14Z) - Joint Mind Modeling for Explanation Generation in Complex Human-Robot
Collaborative Tasks [83.37025218216888]
本稿では,人間とロボットのコラボレーションにおいて,人間のようなコミュニケーションを実現するための新しい説明可能なAI(XAI)フレームワークを提案する。
ロボットは、人間のユーザの階層的なマインドモデルを構築し、コミュニケーションの一形態として自身のマインドの説明を生成する。
その結果,提案手法はロボットの協調動作性能とユーザ認識を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2020-07-24T23:35:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。