論文の概要: Sufficiently Accurate Model Learning for Planning
- arxiv url: http://arxiv.org/abs/2102.06099v1
- Date: Thu, 11 Feb 2021 16:27:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-12 14:07:27.844511
- Title: Sufficiently Accurate Model Learning for Planning
- Title(参考訳): 計画のための高精度なモデル学習
- Authors: Clark Zhang, Santiago Paternain, Alejandro Ribeiro
- Abstract要約: 本稿では,制約付きSufficiently Accurateモデル学習手法を提案する。
これはそのような問題の例を示し、いくつかの近似解がいかに近いかという定理を提示する。
近似解の質は、関数のパラメータ化、損失と制約関数の滑らかさ、モデル学習におけるサンプルの数に依存する。
- 参考スコア(独自算出の注目度): 119.80502738709937
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data driven models of dynamical systems help planners and controllers to
provide more precise and accurate motions. Most model learning algorithms will
try to minimize a loss function between the observed data and the model's
predictions. This can be improved using prior knowledge about the task at hand,
which can be encoded in the form of constraints. This turns the unconstrained
model learning problem into a constrained one. These constraints allow models
with finite capacity to focus their expressive power on important aspects of
the system. This can lead to models that are better suited for certain tasks.
This paper introduces the constrained Sufficiently Accurate model learning
approach, provides examples of such problems, and presents a theorem on how
close some approximate solutions can be. The approximate solution quality will
depend on the function parameterization, loss and constraint function
smoothness, and the number of samples in model learning.
- Abstract(参考訳): 動的システムのデータ駆動モデルは、プランナーやコントローラがより正確で正確な動きを提供するのに役立つ。
ほとんどのモデル学習アルゴリズムは、観測データとモデルの予測の間の損失関数を最小化しようとする。
これは、目の前のタスクに関する事前の知識を使って改善することができ、制約の形でエンコードできる。
これは制約のないモデル学習問題を制約のある問題に変える。
これらの制約により、有限容量を持つモデルは、システムの重要な側面に表現力に集中することができる。
これは特定のタスクに適したモデルにつながる可能性がある。
本稿では,制約付きSufficiently Accurateモデル学習手法を導入し,そのような問題の例を示し,近似解がどの程度近いかという定理を示す。
近似解の質は、関数のパラメータ化、損失と制約関数の滑らかさ、およびモデル学習におけるサンプル数に依存する。
関連論文リスト
- Provable unlearning in topic modeling and downstream tasks [36.571324268874264]
アンラーニングの保証は、しばしば教師付き学習設定に限られる。
我々は、事前学習と微調整のパラダイムにおいて、初となるアンラーニングの理論的保証を提供する。
我々は、特定のタスクに微調整されたモデルから事前学習データを容易に解放できることを示し、ベースモデルを変更することなく、このデータを解放できることを示した。
論文 参考訳(メタデータ) (2024-11-19T16:04:31Z) - SMILE: Zero-Shot Sparse Mixture of Low-Rank Experts Construction From Pre-Trained Foundation Models [85.67096251281191]
我々は、ゼロショットスパースミクチャー(SMILE)と呼ばれるモデル融合に対する革新的なアプローチを提案する。
SMILEは、余分なデータやさらなるトレーニングなしに、ソースモデルをMoEモデルにアップスケーリングできる。
画像分類やテキスト生成タスクなど,さまざまなシナリオに対して,フル微調整とLoRA微調整を用いて広範な実験を行う。
論文 参考訳(メタデータ) (2024-08-19T17:32:15Z) - Towards Learning Stochastic Population Models by Gradient Descent [0.0]
パラメータと構造を同時に推定することで,最適化手法に大きな課題が生じることを示す。
モデルの正確な推定を実証するが、擬似的、解釈可能なモデルの推論を強制することは、難易度を劇的に高める。
論文 参考訳(メタデータ) (2024-04-10T14:38:58Z) - Deep autoregressive density nets vs neural ensembles for model-based
offline reinforcement learning [2.9158689853305693]
本稿では、利用可能なデータからシステムダイナミクスを推定し、仮想モデルロールアウトにおけるポリシー最適化を行うモデルベース強化学習アルゴリズムについて考察する。
このアプローチは、実際のシステムで破滅的な失敗を引き起こす可能性のあるモデルエラーを悪用することに対して脆弱である。
D4RLベンチマークの1つのよく校正された自己回帰モデルにより、より良い性能が得られることを示す。
論文 参考訳(メタデータ) (2024-02-05T10:18:15Z) - Dataless Knowledge Fusion by Merging Weights of Language Models [51.8162883997512]
微調整された事前学習言語モデルは、下流のNLPモデルを構築するための主要なパラダイムとなっている。
これは、より優れた単一モデルを生み出すために、個々のモデル間で知識を融合させる障壁を生み出します。
パラメータ空間のモデルをマージするデータレス知識融合法を提案する。
論文 参考訳(メタデータ) (2022-12-19T20:46:43Z) - Evaluating model-based planning and planner amortization for continuous
control [79.49319308600228]
我々は、モデル予測制御(MPC)と学習モデルとモデルフリーポリシー学習を組み合わせたハイブリッドアプローチを採っている。
モデルフリーエージェントは高いDoF制御問題においても強いベースラインであることがわかった。
モデルに基づくプランナを,パフォーマンスを損なうことなく,計画が損なわれるようなポリシーに置き換えることが可能であることを示す。
論文 参考訳(メタデータ) (2021-10-07T12:00:40Z) - Machine Unlearning of Features and Labels [72.81914952849334]
機械学習モデルにおけるアンラーニングとラベルのファーストシナリオを提案する。
提案手法は,影響関数の概念に基づいて,モデルパラメータのクローズドフォーム更新によるアンラーニングを実現する。
論文 参考訳(メタデータ) (2021-08-26T04:42:24Z) - Structured Hammerstein-Wiener Model Learning for Model Predictive
Control [0.2752817022620644]
本稿では,機械学習によって構築されたモデルを用いて最適制御の信頼性を向上させることを目的とする。
本稿では,Hammerstein-Wienerモデルと凸ニューラルネットワークを組み合わせたモデルを提案する。
論文 参考訳(メタデータ) (2021-07-09T06:41:34Z) - Goal-Aware Prediction: Learning to Model What Matters [105.43098326577434]
学習した前進力学モデルを使用する際の根本的な課題の1つは、学習したモデルの目的と下流のプランナーやポリシーの目標とのミスマッチである。
本稿では,タスク関連情報への直接的予測を提案し,そのモデルが現在のタスクを認識し,状態空間の関連量のみをモデル化することを奨励する。
提案手法は,目標条件付きシーンの関連部分を効果的にモデル化し,その結果,標準タスク非依存のダイナミックスモデルやモデルレス強化学習より優れていることがわかった。
論文 参考訳(メタデータ) (2020-07-14T16:42:59Z) - Bootstrapped model learning and error correction for planning with
uncertainty in model-based RL [1.370633147306388]
自然の目的は、環境のダイナミクスを正確に反映したモデルを学ぶことである。
本稿では,不確実性を考慮した強化学習エージェントによるモデルミス特定の問題について検討する。
本稿では,将来の状態と報酬の分布を学習するブートストラップ型マルチヘッドニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2020-04-15T15:41:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。