論文の概要: Smile Like You Mean It: Driving Animatronic Robotic Face with Learned
Models
- arxiv url: http://arxiv.org/abs/2105.12724v1
- Date: Wed, 26 May 2021 17:57:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-27 13:43:00.420239
- Title: Smile Like You Mean It: Driving Animatronic Robotic Face with Learned
Models
- Title(参考訳): 学習したモデルでアニマトロニックな顔を動かす「Smile Like You」
- Authors: Boyuan Chen, Yuhang Hu, Lianfeng Li, Sara Cummings, Hod Lipson
- Abstract要約: 人間のような社会ロボットを構築するには、知的で一般化可能な表情を生成する能力が不可欠である。
顔模倣のための視覚に基づく自己教師型学習フレームワークを開発した。
本手法は, 多様な被験者に対して, 正確かつ多様な顔の模倣を可能にする。
- 参考スコア(独自算出の注目度): 11.925808365657936
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ability to generate intelligent and generalizable facial expressions is
essential for building human-like social robots. At present, progress in this
field is hindered by the fact that each facial expression needs to be
programmed by humans. In order to adapt robot behavior in real time to
different situations that arise when interacting with human subjects, robots
need to be able to train themselves without requiring human labels, as well as
make fast action decisions and generalize the acquired knowledge to diverse and
new contexts. We addressed this challenge by designing a physical animatronic
robotic face with soft skin and by developing a vision-based self-supervised
learning framework for facial mimicry. Our algorithm does not require any
knowledge of the robot's kinematic model, camera calibration or predefined
expression set. By decomposing the learning process into a generative model and
an inverse model, our framework can be trained using a single motor babbling
dataset. Comprehensive evaluations show that our method enables accurate and
diverse face mimicry across diverse human subjects. The project website is at
http://www.cs.columbia.edu/~bchen/aiface/
- Abstract(参考訳): 人間のようなソーシャルロボットを作るには、インテリジェントで汎用的な表情を作り出す能力が不可欠だ。
現在、この分野の進歩は、それぞれの表情を人間がプログラムする必要があるという事実によって妨げられている。
ロボットの動作を、人間と対話する際に生じるさまざまな状況にリアルタイムで適応させるためには、ロボットは人間のラベルを必要とせずに自らを訓練し、迅速な行動決定を行い、獲得した知識を多様な新しい文脈に一般化する必要がある。
我々は,ソフトスキンを用いた身体的アニマトロニックなロボット顔の設計と,表情模倣のための視覚に基づく自己教師付き学習フレームワークの開発により,この課題に対処した。
我々のアルゴリズムは,ロボットの運動モデル,カメラキャリブレーション,あるいは事前定義された表現セットに関する知識を必要としない。
学習プロセスを生成モデルと逆モデルに分解することにより、我々のフレームワークは単一の運動バブリングデータセットを用いて訓練することができる。
包括的評価から,本手法は多種多様な被験者の顔のまねを正確かつ多様に行うことができることが示された。
プロジェクトのwebサイトはhttp://www.cs.columbia.edu/~bchen/aiface/にある。
関連論文リスト
- $π_0$: A Vision-Language-Action Flow Model for General Robot Control [77.32743739202543]
本稿では,インターネット規模のセマンティック知識を継承するために,事前学習された視覚言語モデル(VLM)上に構築された新しいフローマッチングアーキテクチャを提案する。
我々は,事前訓練後のタスクをゼロショットで実行し,人からの言語指導に追従し,微調整で新たなスキルを習得する能力の観点から,我々のモデルを評価した。
論文 参考訳(メタデータ) (2024-10-31T17:22:30Z) - HumanoidBench: Simulated Humanoid Benchmark for Whole-Body Locomotion and Manipulation [50.616995671367704]
そこで本研究では,人型ロボットが器用な手を備えた,高次元シミュレーション型ロボット学習ベンチマークHumanoidBenchを提案する。
その結果,現在最先端の強化学習アルゴリズムがほとんどのタスクに支障をきたすのに対して,階層的学習アプローチはロバストな低レベルポリシーに支えられた場合,優れた性能を達成できることがわかった。
論文 参考訳(メタデータ) (2024-03-15T17:45:44Z) - Towards Generalizable Zero-Shot Manipulation via Translating Human
Interaction Plans [58.27029676638521]
我々は、人間の受動的ビデオが、そのようなジェネラリストロボットを学習するための豊富なデータ源であることを示す。
我々は、シーンの現在の画像とゴール画像から将来の手やオブジェクトの設定を予測する人間の計画予測器を学習する。
学習システムは、40個のオブジェクトに一般化する16以上の操作スキルを実現できることを示す。
論文 参考訳(メタデータ) (2023-12-01T18:54:12Z) - Robot Learning with Sensorimotor Pre-training [98.7755895548928]
ロボット工学のための自己教師型感覚運動器事前学習手法を提案する。
我々のモデルはRTTと呼ばれ、センサモレータトークンのシーケンスで動作するトランスフォーマーである。
感覚運動の事前学習は、ゼロからトレーニングを一貫して上回り、優れたスケーリング特性を持ち、さまざまなタスク、環境、ロボット間での移動を可能にしている。
論文 参考訳(メタデータ) (2023-06-16T17:58:10Z) - Affordances from Human Videos as a Versatile Representation for Robotics [31.248842798600606]
我々は、人間がどこでどのように対話するかを推定する視覚的余裕モデルを訓練する。
これらの行動割当の構造は、ロボットが多くの複雑なタスクを直接実行できるようにする。
私たちは、VRBと呼ばれる4つの現実世界環境、10以上のタスクと2つのロボットプラットフォームにおいて、私たちのアプローチの有効性を示します。
論文 参考訳(メタデータ) (2023-04-17T17:59:34Z) - Open-World Object Manipulation using Pre-trained Vision-Language Models [72.87306011500084]
ロボットが人からの指示に従うためには、人間の語彙の豊かな意味情報を繋げなければならない。
我々は、事前学習された視覚言語モデルを利用して、オブジェクト識別情報を抽出するシンプルなアプローチを開発する。
実際の移動マニピュレータにおける様々な実験において、MOOはゼロショットを様々な新しいオブジェクトカテゴリや環境に一般化する。
論文 参考訳(メタデータ) (2023-03-02T01:55:10Z) - Towards Modeling and Influencing the Dynamics of Human Learning [26.961274302321343]
私たちは、ロボットが持つ影響を理解し、それを活用して人々をよりよく支援し、人間のモデルが現実とより迅速に一致できるようにするための一歩を踏み出します。
我々のキーとなる考え方は、人間の学習を、新しい観察によって人間の内部モデルを進化させる非線形力学系としてモデル化することである。
次に、人間の学習力学モデルをロボット計画問題に組み込むことで、ロボットが人間の学習にどう影響するかを定式化する。
論文 参考訳(メタデータ) (2023-01-02T23:59:45Z) - HERD: Continuous Human-to-Robot Evolution for Learning from Human
Demonstration [57.045140028275036]
本研究では,マイクロ進化的強化学習を用いて,操作スキルを人間からロボットに伝達可能であることを示す。
本稿では,ロボットの進化経路とポリシーを協調的に最適化する多次元進化経路探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-08T15:56:13Z) - Full-Body Visual Self-Modeling of Robot Morphologies [29.76701883250049]
身体の内部計算モデルは、ロボットや動物が行動の計画と制御を行う能力の基礎である。
完全データ駆動型自己モデリングの最近の進歩により、マシンはタスク非依存の相互作用データから直接フォワードキネマティクスを学習できるようになった。
ここでは、フォワードキネマティクスを直接モデル化するのではなく、空間占有クエリに答えることのできる、より有用な自己モデリング形式を提案する。
論文 参考訳(メタデータ) (2021-11-11T18:58:07Z) - Neuroscience-inspired perception-action in robotics: applying active
inference for state estimation, control and self-perception [2.1067139116005595]
神経科学の発見が、ロボット工学における現在の推定と制御アルゴリズムを改善する機会をいかに開放するかについて議論する。
本稿では,実体プラットフォーム上でのこのような計算モデルの開発から得られた実験と教訓を要約する。
論文 参考訳(メタデータ) (2021-05-10T10:59:38Z) - A Survey of Behavior Learning Applications in Robotics -- State of the Art and Perspectives [44.45953630612019]
最近の多くの領域での機械学習の成功は圧倒的に多い。
実際のロボットで学んだり使ったりした行動について、幅広い概要を述べます。
論文 参考訳(メタデータ) (2019-06-05T07:54:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。