論文の概要: Learning Search-Space Specific Heuristics Using Neural Networks
- arxiv url: http://arxiv.org/abs/2306.04019v1
- Date: Tue, 6 Jun 2023 21:22:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-08 17:08:19.889116
- Title: Learning Search-Space Specific Heuristics Using Neural Networks
- Title(参考訳): ニューラルネットワークを用いた探索空間特定ヒューリスティックス学習
- Authors: Yu Liu and Ryo Kuroiwa and Alex Fukunaga
- Abstract要約: PDDLトレーニングインスタンスが1つあることを前提として,スクラッチからゴール間距離推定器を学習する。
この比較的単純なシステムは驚くほどよく機能し、よく知られたドメインに依存しない古典と競合することがある。
- 参考スコア(独自算出の注目度): 13.226916009242347
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose and evaluate a system which learns a neuralnetwork heuristic
function for forward search-based, satisficing classical planning. Our system
learns distance-to-goal estimators from scratch, given a single PDDL training
instance. Training data is generated by backward regression search or by
backward search from given or guessed goal states. In domains such as the
24-puzzle where all instances share the same search space, such heuristics can
also be reused across all instances in the domain. We show that this relatively
simple system can perform surprisingly well, sometimes competitive with
well-known domain-independent heuristics.
- Abstract(参考訳): 本稿では,ニューラルネットワークのヒューリスティック関数を学習し,古典的計画に満足するシステムを提案する。
本システムは,pddlトレーニングインスタンスを1つ与えて,スクラッチから距離推定器を学習する。
トレーニングデータは、与えられた目標または推測された目標状態からの後方回帰探索によって生成される。
すべてのインスタンスが同じ検索空間を共有する24パズルのようなドメインでは、そのようなヒューリスティックはドメイン内のすべてのインスタンスで再利用できる。
この比較的単純なシステムは驚くほどよく機能し、時にはよく知られたドメインに依存しないヒューリスティックと競合する。
関連論文リスト
- Self-Supervised Learning for Covariance Estimation [3.04585143845864]
推論時に局所的に適用されるニューラルネットワークをグローバルに学習することを提案する。
アーキテクチャは、一般的な注目メカニズムに基づいている。
基礎モデルとして事前訓練し、レーダーやハイパースペクトル画像の適応目標検出など、様々な下流タスクに再利用することができる。
論文 参考訳(メタデータ) (2024-03-13T16:16:20Z) - OFA$^2$: A Multi-Objective Perspective for the Once-for-All Neural
Architecture Search [79.36688444492405]
once-for-All(OFA)は、異なるリソース制約を持つデバイスのための効率的なアーキテクチャを探索する問題に対処するために設計された、ニューラルネットワーク検索(NAS)フレームワークである。
我々は,探索段階を多目的最適化問題として明示的に考えることにより,効率の追求を一歩進めることを目指している。
論文 参考訳(メタデータ) (2023-03-23T21:30:29Z) - Selective Memory Recursive Least Squares: Recast Forgetting into Memory
in RBF Neural Network Based Real-Time Learning [2.31120983784623]
放射ベース関数ニューラルネットワーク(RBFNN)に基づくリアルタイム学習タスクでは、忘れるメカニズムが広く使用されている。
本稿では,従来の記憶機構を記憶機構に再キャストする選択記憶再帰最小二乗法(SMRLS)を提案する。
SMRLSでは、RBFNNの入力空間を有限個の分割に均等に分割し、各分割から合成されたサンプルを用いて合成目的関数を開発する。
論文 参考訳(メタデータ) (2022-11-15T05:29:58Z) - Test-time Training for Data-efficient UCDR [22.400837122986175]
ユニバーサルクロスドメイン検索プロトコルはこの分野のパイオニアである。
本研究では,一般化された検索問題をデータ効率で探索する。
論文 参考訳(メタデータ) (2022-08-19T07:50:04Z) - Sampling from Pre-Images to Learn Heuristic Functions for Classical
Planning [8.000374471991247]
本稿では,古典的計画問題に対するニューラルネットワーク(NN)定義関数をインスタンスごとの学習のために,回帰ベーススーパービジョンラーニング(RSL)という新しいアルゴリズムを導入する。
RSLは、これまでの古典的なプランニングNNよりも優れており、トレーニング時間も桁違いに少ない。
論文 参考訳(メタデータ) (2022-07-07T14:42:31Z) - PredRNN: A Recurrent Neural Network for Spatiotemporal Predictive
Learning [109.84770951839289]
歴史的文脈からビジュアルダイナミクスを学習するための新しいリカレントネットワークであるPredRNNを紹介する。
本手法は,3つの標準データセット上で高い競争結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-17T08:28:30Z) - Network Classifiers Based on Social Learning [71.86764107527812]
空間と時間に対して独立に訓練された分類器を結合する新しい手法を提案する。
提案したアーキテクチャは、ラベルのないデータで時間とともに予測性能を改善することができる。
この戦略は高い確率で一貫した学習をもたらすことが示され、未訓練の分類器に対して頑健な構造が得られる。
論文 参考訳(メタデータ) (2020-10-23T11:18:20Z) - MS-RANAS: Multi-Scale Resource-Aware Neural Architecture Search [94.80212602202518]
我々は,MS-RANAS(Multi-Scale Resource-Aware Neural Architecture Search)を提案する。
我々は,検索コストの削減を図るために,ワンショットのアーキテクチャ探索手法を採用した。
我々は精度-速度トレードオフの観点から最先端の結果を得る。
論文 参考訳(メタデータ) (2020-09-29T11:56:01Z) - NAS-Navigator: Visual Steering for Explainable One-Shot Deep Neural
Network Synthesis [53.106414896248246]
本稿では,分析者がドメイン知識を注入することで,解のサブグラフ空間を効果的に構築し,ネットワーク探索をガイドするフレームワークを提案する。
このテクニックを反復的に適用することで、アナリストは、与えられたアプリケーションに対して最高のパフォーマンスのニューラルネットワークアーキテクチャに収束することができる。
論文 参考訳(メタデータ) (2020-09-28T01:48:45Z) - DC-NAS: Divide-and-Conquer Neural Architecture Search [108.57785531758076]
本稿では,ディープ・ニューラル・アーキテクチャーを効果的かつ効率的に探索するためのディバイド・アンド・コンカ(DC)手法を提案する。
ImageNetデータセットで75.1%の精度を達成しており、これは同じ検索空間を使った最先端の手法よりも高い。
論文 参考訳(メタデータ) (2020-05-29T09:02:16Z) - Deep Randomized Neural Networks [12.333836441649343]
ランダム化されたニューラルネットワークは、ほとんどの接続が固定されたニューラルネットワークの挙動を探索する。
本章はランダム化ニューラルネットワークの設計と解析に関する主要な側面をすべて調査する。
論文 参考訳(メタデータ) (2020-02-27T17:57:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。