論文の概要: Sampling from Pre-Images to Learn Heuristic Functions for Classical
Planning
- arxiv url: http://arxiv.org/abs/2207.03336v1
- Date: Thu, 7 Jul 2022 14:42:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-08 20:05:01.079545
- Title: Sampling from Pre-Images to Learn Heuristic Functions for Classical
Planning
- Title(参考訳): 古典計画のための予備画像からヒューリスティック関数を学習する
- Authors: Stefan O'Toole, Miquel Ramirez, Nir Lipovetzky, Adrian R. Pearce
- Abstract要約: 本稿では,古典的計画問題に対するニューラルネットワーク(NN)定義関数をインスタンスごとの学習のために,回帰ベーススーパービジョンラーニング(RSL)という新しいアルゴリズムを導入する。
RSLは、これまでの古典的なプランニングNNよりも優れており、トレーニング時間も桁違いに少ない。
- 参考スコア(独自算出の注目度): 8.000374471991247
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce a new algorithm, Regression based Supervised Learning (RSL), for
learning per instance Neural Network (NN) defined heuristic functions for
classical planning problems. RSL uses regression to select relevant sets of
states at a range of different distances from the goal. RSL then formulates a
Supervised Learning problem to obtain the parameters that define the NN
heuristic, using the selected states labeled with exact or estimated distances
to goal states. Our experimental study shows that RSL outperforms, in terms of
coverage, previous classical planning NN heuristics functions while requiring
two orders of magnitude less training time.
- Abstract(参考訳): 従来の計画問題に対して,ニューラルネットワーク(nn)で定義されたヒューリスティック関数を学習するための新しいアルゴリズムである回帰型教師付き学習(rsl)を提案する。
RSLは回帰を用いて、目標から様々な距離で関連する状態の集合を選択する。
RSLは、目標状態への正確な距離または推定距離をラベル付けした選択された状態を用いて、NNヒューリスティックを定義するパラメータを得るために、教師付き学習問題を定式化する。
実験の結果,従来計画のnnヒューリスティックスは2桁のトレーニング時間を必要とするが,rslはカバー範囲において,従来のnnヒューリスティックス関数よりも優れていた。
関連論文リスト
- Unveiling the Power of Sparse Neural Networks for Feature Selection [60.50319755984697]
スパースニューラルネットワーク(SNN)は、効率的な特徴選択のための強力なツールとして登場した。
動的スパーストレーニング(DST)アルゴリズムで訓練されたSNNは、平均して50%以上のメモリと55%以上のFLOPを削減できることを示す。
以上の結果から,DSTアルゴリズムで訓練したSNNによる特徴選択は,平均して50ドル以上のメモリと55%のFLOPを削減できることがわかった。
論文 参考訳(メタデータ) (2024-08-08T16:48:33Z) - Planning in a recurrent neural network that plays Sokoban [6.059513516334741]
ニューラルネットワークが新しい状況にどのように一般化するかは、計画プロセスを通じて行動的を選択することを学習したかどうかに依存する。
我々は、Skobanをプレイするように訓練された繰り返しNNが計画しているように見え、RNNの成功率を改善する余分な計算ステップが得られた。
モデル手術を行い、畳み込みNNが10×10のアーキテクチャ限界を超えて一般化できるようにする。
論文 参考訳(メタデータ) (2024-07-22T06:57:34Z) - Continual Learning via Sequential Function-Space Variational Inference [65.96686740015902]
連続学習を逐次関数空間変動推論として定式化した目的を提案する。
ニューラルネットワークの予測を直接正規化する目的と比較して、提案した目的はより柔軟な変動分布を可能にする。
タスクシーケンスの範囲で、逐次関数空間変動推論によってトレーニングされたニューラルネットワークは、関連する手法でトレーニングされたネットワークよりも予測精度が良いことを実証した。
論文 参考訳(メタデータ) (2023-12-28T18:44:32Z) - Re-visiting Reservoir Computing architectures optimized by Evolutionary
Algorithms [0.0]
進化的アルゴリズム(EA)はニューラルネットワーク(NN)アーキテクチャの改善に応用されている。
我々は、Reservoir Computing (RC) という、リカレントNNの特定の領域におけるEAの応用に関する体系的な簡単な調査を行う。
論文 参考訳(メタデータ) (2022-11-11T14:50:54Z) - Reinforcement Learning for Classical Planning: Viewing Heuristics as
Dense Reward Generators [54.6441336539206]
本稿では,RLのサンプル効率を向上させるために,古典的計画文献でよく用いられるドメイン非依存関数を活用することを提案する。
これらの古典は、スパース・リワード問題を緩和し、RLエージェントが残余としてドメイン固有の値関数を学習できるようにするために、密度の高い報酬生成器として機能する。
いくつかの古典的計画領域において、古典論理を RL に用いた場合、スパース逆 RL と比較してサンプル効率が良いことを実証する。
論文 参考訳(メタデータ) (2021-09-30T03:36:01Z) - Learning Regularization Parameters of Inverse Problems via Deep Neural
Networks [0.0]
ネットワークが観察データから正規化パラメータへのマッピングを近似するように訓練される、教師付き学習アプローチを検討する。
本稿では,多種多様な正規化関数,フォワードモデル,ノイズモデルについて考察する。
ネットワークが取得する正規化パラメータは、より効率的に計算でき、より正確なソリューションにもつながります。
論文 参考訳(メタデータ) (2021-04-14T02:38:38Z) - NSL: Hybrid Interpretable Learning From Noisy Raw Data [66.15862011405882]
本稿では,ラベル付き非構造データから解釈可能なルールを学習するニューラルシンボリック学習フレームワークNSLを提案する。
NSLは、機能抽出のためのトレーニング済みニューラルネットワークと、解集合セマンティクスに基づくルール学習のための最先端のILPシステムであるFastLASを組み合わせる。
NSLは、MNISTデータから堅牢なルールを学び、ニューラルネットワークやランダムフォレストベースラインと比較して、比較または優れた精度を達成できることを実証します。
論文 参考訳(メタデータ) (2020-12-09T13:02:44Z) - A Novel Neural Network Training Framework with Data Assimilation [2.948167339160823]
勾配計算を避けるため,データ同化に基づく勾配なし学習フレームワークを提案する。
その結果,提案手法は勾配法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2020-10-06T11:12:23Z) - Persistent Neurons [4.061135251278187]
本稿では,学習課題を最適化するトラジェクトリベースの戦略を提案する。
永続ニューロンは、決定論的誤差項によって個々の更新が破損する勾配情報バイアスを持つ方法とみなすことができる。
完全かつ部分的なパーシステンスモデルの評価を行い、NN構造における性能向上に有効であることを示す。
論文 参考訳(メタデータ) (2020-07-02T22:36:49Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - AdaS: Adaptive Scheduling of Stochastic Gradients [50.80697760166045]
我々は、textit "knowledge gain" と textit "mapping condition" の概念を導入し、Adaptive Scheduling (AdaS) と呼ばれる新しいアルゴリズムを提案する。
実験によると、AdaSは派生した指標を用いて、既存の適応学習手法よりも高速な収束と優れた一般化、そして(b)いつトレーニングを中止するかを決定するための検証セットへの依存の欠如を示す。
論文 参考訳(メタデータ) (2020-06-11T16:36:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。