論文の概要: Learning to Transfer Dynamic Models of Underactuated Soft Robotic Hands
- arxiv url: http://arxiv.org/abs/2005.10418v1
- Date: Thu, 21 May 2020 01:46:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-30 23:04:06.933558
- Title: Learning to Transfer Dynamic Models of Underactuated Soft Robotic Hands
- Title(参考訳): 不安定なソフトロボットハンドの動的モデル伝達の学習
- Authors: Liam Schramm, Avishai Sintov, and Abdeslam Boularias
- Abstract要約: 転送学習は、別のドメインのデータを活用することによって、あるドメインのデータ制限をバイパスする一般的なアプローチである。
いくつかの状況では、これは単に適応なしで変換されたモデルを使用するよりも、はるかにパフォーマンスが悪くなることを示します。
我々は、訓練された遷移モデルのリャプノフ指数の上界を導出し、この知見を利用する2つのアプローチを実証する。
- 参考スコア(独自算出の注目度): 15.481728234509227
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transfer learning is a popular approach to bypassing data limitations in one
domain by leveraging data from another domain. This is especially useful in
robotics, as it allows practitioners to reduce data collection with physical
robots, which can be time-consuming and cause wear and tear. The most common
way of doing this with neural networks is to take an existing neural network,
and simply train it more with new data. However, we show that in some
situations this can lead to significantly worse performance than simply using
the transferred model without adaptation. We find that a major cause of these
problems is that models trained on small amounts of data can have chaotic or
divergent behavior in some regions. We derive an upper bound on the Lyapunov
exponent of a trained transition model, and demonstrate two approaches that
make use of this insight. Both show significant improvement over traditional
fine-tuning. Experiments performed on real underactuated soft robotic hands
clearly demonstrate the capability to transfer a dynamic model from one hand to
another.
- Abstract(参考訳): 転送学習は、あるドメイン内のデータ制限を回避し、別のドメインのデータを活用する一般的なアプローチである。
これは、実践者が物理的ロボットによるデータ収集を減らすことができるため、ロボット工学において特に有用である。
これをニューラルネットワークで行う最も一般的な方法は、既存のニューラルネットワークを取り、単に新しいデータでトレーニングすることだ。
しかし、一部の状況では、単に適応せずに転送されたモデルを使うよりも、パフォーマンスが著しく悪化する可能性がある。
これらの問題の主な原因は、少量のデータで訓練されたモデルが、一部の地域でカオス的または散発的な振る舞いを持つ可能性があることにある。
我々は、訓練された遷移モデルのリアプノフ指数の上界を導出し、この知見を利用する2つのアプローチを実証する。
どちらも従来の微調整よりも大幅に改善されている。
実際のソフトロボットハンドで行った実験は、動的モデルを片手から別の手へと移す能力を明確に示している。
関連論文リスト
- Transferable Post-training via Inverse Value Learning [83.75002867411263]
別個のニューラルネットワーク(すなわち値ネットワーク)を用いた後学習におけるロジットレベルのモデリング変更を提案する。
このネットワークをデモを使って小さなベースモデルでトレーニングした後、推論中に他のトレーニング済みモデルとシームレスに統合することができる。
得られた値ネットワークは、パラメータサイズの異なる事前学習されたモデル間で広い転送性を有することを示す。
論文 参考訳(メタデータ) (2024-10-28T13:48:43Z) - Learning-based adaption of robotic friction models [48.453527255659296]
我々は、可能な限り少ないデータを用いて、既存の摩擦モデルを新しいダイナミクスに適用するための新しいアプローチを導入する。
提案する推定器は,従来のモデルベースアプローチとベースニューラルネットワークを著しく上回る性能を示した。
本手法はトレーニング中に外部負荷を伴うデータに依存しないため,外部トルクセンサは不要である。
論文 参考訳(メタデータ) (2023-10-25T14:50:15Z) - Efficiently Robustify Pre-trained Models [18.392732966487582]
大規模モデルの現実的な設定に対する堅牢性は、いまだ探索されていないトピックである。
まず、異なる摂動とデータセットの下でこれらのモデルのパフォーマンスをベンチマークします。
続いて、大規模ネットワークにおいて、モデルファインチューニングに基づく既存のロバスト化スキームが拡張性に欠ける可能性について論じる。
論文 参考訳(メタデータ) (2023-09-14T08:07:49Z) - Value function estimation using conditional diffusion models for control [62.27184818047923]
拡散値関数(DVF)と呼ばれる単純なアルゴリズムを提案する。
拡散モデルを用いて環境-ロボット相互作用の連成多段階モデルを学ぶ。
本稿では,DVFを用いて複数のコントローラの状態を効率よく把握する方法を示す。
論文 参考訳(メタデータ) (2023-06-09T18:40:55Z) - Cooperative data-driven modeling [44.99833362998488]
メカニクスにおけるデータ駆動モデリングは、最近の機械学習の進歩に基づいて急速に進化している。
異なるグループによって作成された新しいデータとモデルが利用可能となり、協調モデリングの可能性が開ける。
人工ニューラルネットワークは、破滅的な忘れ、すなわち、新しいタスクでトレーニングされたときに古いタスクを実行する方法を忘れることに苦しむ。
これは、新しいタスクに既存のモデルを適用することが、誰かによって訓練された前のタスクのパフォーマンスに影響を与えるため、協力を妨げる。
論文 参考訳(メタデータ) (2022-11-23T14:27:25Z) - Real-to-Sim: Predicting Residual Errors of Robotic Systems with Sparse
Data using a Learning-based Unscented Kalman Filter [65.93205328894608]
我々は,動的・シミュレータモデルと実ロボット間の残差を学習する。
学習した残差誤差により、動的モデル、シミュレーション、および実際のハードウェア間の現実的ギャップをさらに埋めることができることを示す。
論文 参考訳(メタデータ) (2022-09-07T15:15:12Z) - Continual Learning with Transformers for Image Classification [12.028617058465333]
コンピュータビジョンでは、ニューラルネットワークモデルは、過去に何を学んだかを忘れずに、新しい概念を継続的に学習する。
本研究では,適応型適応器の蒸留法 (ADA) を開発した。
本手法は,モデルを再学習することなく,優れた予測性能を維持することを実証的に示す。
論文 参考訳(メタデータ) (2022-06-28T15:30:10Z) - Parameter-Efficient Transfer from Sequential Behaviors for User Modeling
and Recommendation [111.44445634272235]
本稿では,PeterRecと呼ばれるパラメータ効率のよい移動学習アーキテクチャを提案する。
PeterRecは、トレーニング済みのパラメータを、一連の再学習ニューラルネットワークを注入することで、微調整中に修正されないようにする。
我々は5つの下流タスクにおいて学習したユーザ表現の有効性を示すために、広範囲な実験的アブレーションを行う。
論文 参考訳(メタデータ) (2020-01-13T14:09:54Z) - Learning Predictive Models From Observation and Interaction [137.77887825854768]
世界との相互作用から予測モデルを学ぶことで、ロボットのようなエージェントが世界がどのように働くかを学ぶことができる。
しかし、複雑なスキルのダイナミクスを捉えるモデルを学ぶことは大きな課題である。
本研究では,人間などの他のエージェントの観察データを用いて,トレーニングセットを増強する手法を提案する。
論文 参考訳(メタデータ) (2019-12-30T01:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。