論文の概要: Smile Like You Mean It: Driving Animatronic Robotic Face with Learned
Models
- arxiv url: http://arxiv.org/abs/2105.12724v1
- Date: Wed, 26 May 2021 17:57:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-27 13:43:00.420239
- Title: Smile Like You Mean It: Driving Animatronic Robotic Face with Learned
Models
- Title(参考訳): 学習したモデルでアニマトロニックな顔を動かす「Smile Like You」
- Authors: Boyuan Chen, Yuhang Hu, Lianfeng Li, Sara Cummings, Hod Lipson
- Abstract要約: 人間のような社会ロボットを構築するには、知的で一般化可能な表情を生成する能力が不可欠である。
顔模倣のための視覚に基づく自己教師型学習フレームワークを開発した。
本手法は, 多様な被験者に対して, 正確かつ多様な顔の模倣を可能にする。
- 参考スコア(独自算出の注目度): 11.925808365657936
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ability to generate intelligent and generalizable facial expressions is
essential for building human-like social robots. At present, progress in this
field is hindered by the fact that each facial expression needs to be
programmed by humans. In order to adapt robot behavior in real time to
different situations that arise when interacting with human subjects, robots
need to be able to train themselves without requiring human labels, as well as
make fast action decisions and generalize the acquired knowledge to diverse and
new contexts. We addressed this challenge by designing a physical animatronic
robotic face with soft skin and by developing a vision-based self-supervised
learning framework for facial mimicry. Our algorithm does not require any
knowledge of the robot's kinematic model, camera calibration or predefined
expression set. By decomposing the learning process into a generative model and
an inverse model, our framework can be trained using a single motor babbling
dataset. Comprehensive evaluations show that our method enables accurate and
diverse face mimicry across diverse human subjects. The project website is at
http://www.cs.columbia.edu/~bchen/aiface/
- Abstract(参考訳): 人間のようなソーシャルロボットを作るには、インテリジェントで汎用的な表情を作り出す能力が不可欠だ。
現在、この分野の進歩は、それぞれの表情を人間がプログラムする必要があるという事実によって妨げられている。
ロボットの動作を、人間と対話する際に生じるさまざまな状況にリアルタイムで適応させるためには、ロボットは人間のラベルを必要とせずに自らを訓練し、迅速な行動決定を行い、獲得した知識を多様な新しい文脈に一般化する必要がある。
我々は,ソフトスキンを用いた身体的アニマトロニックなロボット顔の設計と,表情模倣のための視覚に基づく自己教師付き学習フレームワークの開発により,この課題に対処した。
我々のアルゴリズムは,ロボットの運動モデル,カメラキャリブレーション,あるいは事前定義された表現セットに関する知識を必要としない。
学習プロセスを生成モデルと逆モデルに分解することにより、我々のフレームワークは単一の運動バブリングデータセットを用いて訓練することができる。
包括的評価から,本手法は多種多様な被験者の顔のまねを正確かつ多様に行うことができることが示された。
プロジェクトのwebサイトはhttp://www.cs.columbia.edu/~bchen/aiface/にある。
関連論文リスト
- Towards Generalizable Zero-Shot Manipulation via Translating Human
Interaction Plans [58.27029676638521]
我々は、人間の受動的ビデオが、そのようなジェネラリストロボットを学習するための豊富なデータ源であることを示す。
我々は、シーンの現在の画像とゴール画像から将来の手やオブジェクトの設定を予測する人間の計画予測器を学習する。
学習システムは、40個のオブジェクトに一般化する16以上の操作スキルを実現できることを示す。
論文 参考訳(メタデータ) (2023-12-01T18:54:12Z) - Robot Learning with Sensorimotor Pre-training [98.7755895548928]
ロボット工学のための自己教師型感覚運動器事前学習手法を提案する。
我々のモデルはRTTと呼ばれ、センサモレータトークンのシーケンスで動作するトランスフォーマーである。
感覚運動の事前学習は、ゼロからトレーニングを一貫して上回り、優れたスケーリング特性を持ち、さまざまなタスク、環境、ロボット間での移動を可能にしている。
論文 参考訳(メタデータ) (2023-06-16T17:58:10Z) - Affordances from Human Videos as a Versatile Representation for Robotics [31.248842798600606]
我々は、人間がどこでどのように対話するかを推定する視覚的余裕モデルを訓練する。
これらの行動割当の構造は、ロボットが多くの複雑なタスクを直接実行できるようにする。
私たちは、VRBと呼ばれる4つの現実世界環境、10以上のタスクと2つのロボットプラットフォームにおいて、私たちのアプローチの有効性を示します。
論文 参考訳(メタデータ) (2023-04-17T17:59:34Z) - Open-World Object Manipulation using Pre-trained Vision-Language Models [72.87306011500084]
ロボットが人からの指示に従うためには、人間の語彙の豊かな意味情報を繋げなければならない。
我々は、事前学習された視覚言語モデルを利用して、オブジェクト識別情報を抽出するシンプルなアプローチを開発する。
実際の移動マニピュレータにおける様々な実験において、MOOはゼロショットを様々な新しいオブジェクトカテゴリや環境に一般化する。
論文 参考訳(メタデータ) (2023-03-02T01:55:10Z) - Towards Modeling and Influencing the Dynamics of Human Learning [26.961274302321343]
私たちは、ロボットが持つ影響を理解し、それを活用して人々をよりよく支援し、人間のモデルが現実とより迅速に一致できるようにするための一歩を踏み出します。
我々のキーとなる考え方は、人間の学習を、新しい観察によって人間の内部モデルを進化させる非線形力学系としてモデル化することである。
次に、人間の学習力学モデルをロボット計画問題に組み込むことで、ロボットが人間の学習にどう影響するかを定式化する。
論文 参考訳(メタデータ) (2023-01-02T23:59:45Z) - HERD: Continuous Human-to-Robot Evolution for Learning from Human
Demonstration [57.045140028275036]
本研究では,マイクロ進化的強化学習を用いて,操作スキルを人間からロボットに伝達可能であることを示す。
本稿では,ロボットの進化経路とポリシーを協調的に最適化する多次元進化経路探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-08T15:56:13Z) - Data-driven emotional body language generation for social robotics [58.88028813371423]
社会ロボティクスでは、人間型ロボットに感情の身体的表現を生成する能力を与えることで、人間とロボットの相互作用とコラボレーションを改善することができる。
我々は、手作業で設計されたいくつかの身体表現から学習する深層学習データ駆動フレームワークを実装した。
評価実験の結果, 生成した表現の人間同型とアニマシーは手作りの表現と異なる認識が得られなかった。
論文 参考訳(メタデータ) (2022-05-02T09:21:39Z) - Full-Body Visual Self-Modeling of Robot Morphologies [29.76701883250049]
身体の内部計算モデルは、ロボットや動物が行動の計画と制御を行う能力の基礎である。
完全データ駆動型自己モデリングの最近の進歩により、マシンはタスク非依存の相互作用データから直接フォワードキネマティクスを学習できるようになった。
ここでは、フォワードキネマティクスを直接モデル化するのではなく、空間占有クエリに答えることのできる、より有用な自己モデリング形式を提案する。
論文 参考訳(メタデータ) (2021-11-11T18:58:07Z) - Neuroscience-inspired perception-action in robotics: applying active
inference for state estimation, control and self-perception [2.1067139116005595]
神経科学の発見が、ロボット工学における現在の推定と制御アルゴリズムを改善する機会をいかに開放するかについて議論する。
本稿では,実体プラットフォーム上でのこのような計算モデルの開発から得られた実験と教訓を要約する。
論文 参考訳(メタデータ) (2021-05-10T10:59:38Z) - Sensorimotor representation learning for an "active self" in robots: A
model survey [10.649413494649293]
人間では、これらの能力は宇宙で私たちの身体を知覚する能力と関連していると考えられている。
本稿では,これらの能力の発達過程について概説する。
人工エージェントにおける自己感覚の出現を可能にする理論計算フレームワークを提案する。
論文 参考訳(メタデータ) (2020-11-25T16:31:01Z) - Learning Predictive Models From Observation and Interaction [137.77887825854768]
世界との相互作用から予測モデルを学ぶことで、ロボットのようなエージェントが世界がどのように働くかを学ぶことができる。
しかし、複雑なスキルのダイナミクスを捉えるモデルを学ぶことは大きな課題である。
本研究では,人間などの他のエージェントの観察データを用いて,トレーニングセットを増強する手法を提案する。
論文 参考訳(メタデータ) (2019-12-30T01:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。