論文の概要: PDSketch: Integrated Planning Domain Programming and Learning
- arxiv url: http://arxiv.org/abs/2303.05501v2
- Date: Thu, 24 Aug 2023 17:48:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-28 17:53:15.969948
- Title: PDSketch: Integrated Planning Domain Programming and Learning
- Title(参考訳): pdsketch: 計画型ドメインプログラミングと学習の統合
- Authors: Jiayuan Mao, Tom\'as Lozano-P\'erez, Joshua B. Tenenbaum, Leslie Pack
Kaelbling
- Abstract要約: 我々は PDSketch という新しいドメイン定義言語を提案する。
これにより、ユーザーはトランジションモデルで柔軟にハイレベルな構造を定義できる。
移行モデルの詳細は、トレーニング可能なニューラルネットワークによって満たされる。
- 参考スコア(独自算出の注目度): 86.07442931141637
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper studies a model learning and online planning approach towards
building flexible and general robots. Specifically, we investigate how to
exploit the locality and sparsity structures in the underlying environmental
transition model to improve model generalization, data-efficiency, and
runtime-efficiency. We present a new domain definition language, named
PDSketch. It allows users to flexibly define high-level structures in the
transition models, such as object and feature dependencies, in a way similar to
how programmers use TensorFlow or PyTorch to specify kernel sizes and hidden
dimensions of a convolutional neural network. The details of the transition
model will be filled in by trainable neural networks. Based on the defined
structures and learned parameters, PDSketch automatically generates
domain-independent planning heuristics without additional training. The derived
heuristics accelerate the performance-time planning for novel goals.
- Abstract(参考訳): 本稿では,柔軟で汎用的なロボット構築に向けたモデル学習とオンライン計画手法について検討する。
具体的には,基盤となる環境遷移モデルにおける局所性とスパーシティ構造をどのように活用し,モデル一般化,データ効率,ランタイム効率を向上させるかを検討する。
我々は PDSketch という新しいドメイン定義言語を提案する。
ユーザは、tensorflowやpytorchを使って畳み込みニューラルネットワークのカーネルサイズと隠れた寸法を指定するのと同じような方法で、オブジェクトや機能依存といった移行モデルにおいて、柔軟にハイレベルな構造を定義することができる。
移行モデルの詳細は、トレーニング可能なニューラルネットワークによって満たされる。
定義された構造と学習パラメータに基づいて、PDSketchは追加のトレーニングなしでドメインに依存しない計画ヒューリスティックを自動的に生成する。
派生したヒューリスティックは、新しい目標のためのパフォーマンスタイムプランニングを加速する。
関連論文リスト
- A New View on Planning in Online Reinforcement Learning [19.35031543927374]
本稿では,背景計画を用いたモデルに基づく強化学習への新たなアプローチについて検討する。
GSPアルゴリズムは抽象空間から様々な基礎学習者が異なる領域でより高速に学習できるような方法で価値を伝播することができることを示す。
論文 参考訳(メタデータ) (2024-06-03T17:45:19Z) - Structural Pruning of Pre-trained Language Models via Neural Architecture Search [7.833790713816726]
事前学習された言語モデル(PLM)は、ラベル付きデータに基づいて微調整された自然言語理解タスクの最先端である。
本稿では, 最適トレードオフ効率を有する微調整ネットワークのサブ部分を見つけるために, 構造解析のためのニューラルアーキテクチャ探索(NAS)について検討する。
論文 参考訳(メタデータ) (2024-05-03T17:34:57Z) - Scaling Pre-trained Language Models to Deeper via Parameter-efficient
Architecture [68.13678918660872]
行列積演算子(MPO)に基づくより有能なパラメータ共有アーキテクチャを設計する。
MPO分解はパラメータ行列の情報を再編成し、2つの部分に分解することができる。
私たちのアーキテクチャは、モデルのサイズを減らすために、すべてのレイヤで中央テンソルを共有しています。
論文 参考訳(メタデータ) (2023-03-27T02:34:09Z) - Learning to Learn with Generative Models of Neural Network Checkpoints [71.06722933442956]
ニューラルネットワークのチェックポイントのデータセットを構築し,パラメータの生成モデルをトレーニングする。
提案手法は,幅広い損失プロンプトに対するパラメータの生成に成功している。
我々は、教師付きおよび強化学習における異なるニューラルネットワークアーキテクチャとタスクに本手法を適用した。
論文 参考訳(メタデータ) (2022-09-26T17:59:58Z) - Goal-Space Planning with Subgoal Models [18.43265820052893]
本稿では,背景計画を用いたモデルに基づく強化学習への新たなアプローチについて検討する。
GSPアルゴリズムは抽象空間から様々な基礎学習者が異なる領域でより高速に学習できるような方法で価値を伝播することができることを示す。
論文 参考訳(メタデータ) (2022-06-06T20:59:07Z) - Learning Features with Parameter-Free Layers [22.92568642331809]
本稿では、ネットワークアーキテクチャにおける効率的なトレーニング可能なレイヤの代替として、単純なパラメータフリーな操作が好ましいと論じる。
ImageNetデータセットの実験では、パラメータフリーな操作を持つネットワークアーキテクチャは、モデル速度、パラメータ数、FLOPのさらなる効率性の利点を享受できることが示されている。
論文 参考訳(メタデータ) (2022-02-06T14:03:36Z) - SOLIS -- The MLOps journey from data acquisition to actionable insights [62.997667081978825]
本稿では,基本的なクロスプラットフォームテンソルフレームワークとスクリプト言語エンジンを使用しながら,すべての要件をサポートする統合デプロイメントパイプラインとフリー・ツー・オペレートアプローチを提案する。
しかし、このアプローチは、実際のプロダクショングレードシステムに機械学習機能を実際にデプロイするために必要な手順やパイプラインを提供していない。
論文 参考訳(メタデータ) (2021-12-22T14:45:37Z) - Visual Learning-based Planning for Continuous High-Dimensional POMDPs [81.16442127503517]
Visual Tree Search (VTS)は、オフラインで学習した生成モデルとオンラインモデルベースのPOMDP計画を組み合わせた学習と計画の手順である。
VTSは、モンテカルロの木探索プランナーにおける画像観測の可能性を予測し評価するために、一連の深部生成観測モデルを利用することで、オフラインモデルトレーニングとオンラインプランニングを橋渡しする。
VTSは、異なる観測ノイズに対して堅牢であり、オンラインのモデルベースプランニングを利用するため、再トレーニングを必要とせずに、異なる報酬構造に適応できることを示す。
論文 参考訳(メタデータ) (2021-12-17T11:53:31Z) - Deep Parametric Continuous Convolutional Neural Networks [92.87547731907176]
Parametric Continuous Convolutionは、非グリッド構造化データ上で動作する、新たな学習可能な演算子である。
室内および屋外シーンの点雲セグメンテーションにおける最先端技術よりも顕著な改善が見られた。
論文 参考訳(メタデータ) (2021-01-17T18:28:23Z) - EPNE: Evolutionary Pattern Preserving Network Embedding [26.06068388979255]
本研究では,ノードの局所構造の進化パターンを保存するための時間ネットワーク埋め込みモデルEPNEを提案する。
時間情報の適切なモデリングにより,本モデルは様々な予測タスクにおいて,他の競合手法よりも優れている。
論文 参考訳(メタデータ) (2020-09-24T06:31:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。