論文の概要: Learning Search-Space Specific Heuristics Using Neural Networks
- arxiv url: http://arxiv.org/abs/2306.04019v1
- Date: Tue, 6 Jun 2023 21:22:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-08 17:08:19.889116
- Title: Learning Search-Space Specific Heuristics Using Neural Networks
- Title(参考訳): ニューラルネットワークを用いた探索空間特定ヒューリスティックス学習
- Authors: Yu Liu and Ryo Kuroiwa and Alex Fukunaga
- Abstract要約: PDDLトレーニングインスタンスが1つあることを前提として,スクラッチからゴール間距離推定器を学習する。
この比較的単純なシステムは驚くほどよく機能し、よく知られたドメインに依存しない古典と競合することがある。
- 参考スコア(独自算出の注目度): 13.226916009242347
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose and evaluate a system which learns a neuralnetwork heuristic
function for forward search-based, satisficing classical planning. Our system
learns distance-to-goal estimators from scratch, given a single PDDL training
instance. Training data is generated by backward regression search or by
backward search from given or guessed goal states. In domains such as the
24-puzzle where all instances share the same search space, such heuristics can
also be reused across all instances in the domain. We show that this relatively
simple system can perform surprisingly well, sometimes competitive with
well-known domain-independent heuristics.
- Abstract(参考訳): 本稿では,ニューラルネットワークのヒューリスティック関数を学習し,古典的計画に満足するシステムを提案する。
本システムは,pddlトレーニングインスタンスを1つ与えて,スクラッチから距離推定器を学習する。
トレーニングデータは、与えられた目標または推測された目標状態からの後方回帰探索によって生成される。
すべてのインスタンスが同じ検索空間を共有する24パズルのようなドメインでは、そのようなヒューリスティックはドメイン内のすべてのインスタンスで再利用できる。
この比較的単純なシステムは驚くほどよく機能し、時にはよく知られたドメインに依存しないヒューリスティックと競合する。
関連論文リスト
- Learning a Neural Association Network for Self-supervised Multi-Object Tracking [34.07776597698471]
本稿では,多目的追跡のためのデータアソシエーションを自己管理的に学習するための新しいフレームワークを提案する。
実世界のシナリオでは、オブジェクトの動きが通常マルコフプロセスで表現できるという事実により、我々は、トラッキングのための検出を関連付けるためにニューラルネットワークをトレーニングする新しい期待(EM)アルゴリズムを提案する。
我々は,挑戦的なMOT17とMOT20データセットに対するアプローチを評価し,自己教師付きトラッカーと比較して最先端の結果を得る。
論文 参考訳(メタデータ) (2024-11-18T12:22:29Z) - A Unified Framework for Neural Computation and Learning Over Time [56.44910327178975]
Hamiltonian Learningはニューラルネットワークを"時間とともに"学習するための新しい統合フレームワーク
i)外部ソフトウェアソルバを必要とせずに統合できる、(ii)フィードフォワードおよびリカレントネットワークにおける勾配に基づく学習の概念を一般化する、(iii)新しい視点で開放する、という微分方程式に基づいている。
論文 参考訳(メタデータ) (2024-09-18T14:57:13Z) - Self-Supervised Learning for Covariance Estimation [3.04585143845864]
推論時に局所的に適用されるニューラルネットワークをグローバルに学習することを提案する。
アーキテクチャは、一般的な注目メカニズムに基づいている。
基礎モデルとして事前訓練し、レーダーやハイパースペクトル画像の適応目標検出など、様々な下流タスクに再利用することができる。
論文 参考訳(メタデータ) (2024-03-13T16:16:20Z) - OFA$^2$: A Multi-Objective Perspective for the Once-for-All Neural
Architecture Search [79.36688444492405]
once-for-All(OFA)は、異なるリソース制約を持つデバイスのための効率的なアーキテクチャを探索する問題に対処するために設計された、ニューラルネットワーク検索(NAS)フレームワークである。
我々は,探索段階を多目的最適化問題として明示的に考えることにより,効率の追求を一歩進めることを目指している。
論文 参考訳(メタデータ) (2023-03-23T21:30:29Z) - Test-time Training for Data-efficient UCDR [22.400837122986175]
ユニバーサルクロスドメイン検索プロトコルはこの分野のパイオニアである。
本研究では,一般化された検索問題をデータ効率で探索する。
論文 参考訳(メタデータ) (2022-08-19T07:50:04Z) - Sampling from Pre-Images to Learn Heuristic Functions for Classical
Planning [8.000374471991247]
本稿では,古典的計画問題に対するニューラルネットワーク(NN)定義関数をインスタンスごとの学習のために,回帰ベーススーパービジョンラーニング(RSL)という新しいアルゴリズムを導入する。
RSLは、これまでの古典的なプランニングNNよりも優れており、トレーニング時間も桁違いに少ない。
論文 参考訳(メタデータ) (2022-07-07T14:42:31Z) - PredRNN: A Recurrent Neural Network for Spatiotemporal Predictive
Learning [109.84770951839289]
歴史的文脈からビジュアルダイナミクスを学習するための新しいリカレントネットワークであるPredRNNを紹介する。
本手法は,3つの標準データセット上で高い競争結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-17T08:28:30Z) - Network Classifiers Based on Social Learning [71.86764107527812]
空間と時間に対して独立に訓練された分類器を結合する新しい手法を提案する。
提案したアーキテクチャは、ラベルのないデータで時間とともに予測性能を改善することができる。
この戦略は高い確率で一貫した学習をもたらすことが示され、未訓練の分類器に対して頑健な構造が得られる。
論文 参考訳(メタデータ) (2020-10-23T11:18:20Z) - MS-RANAS: Multi-Scale Resource-Aware Neural Architecture Search [94.80212602202518]
我々は,MS-RANAS(Multi-Scale Resource-Aware Neural Architecture Search)を提案する。
我々は,検索コストの削減を図るために,ワンショットのアーキテクチャ探索手法を採用した。
我々は精度-速度トレードオフの観点から最先端の結果を得る。
論文 参考訳(メタデータ) (2020-09-29T11:56:01Z) - DC-NAS: Divide-and-Conquer Neural Architecture Search [108.57785531758076]
本稿では,ディープ・ニューラル・アーキテクチャーを効果的かつ効率的に探索するためのディバイド・アンド・コンカ(DC)手法を提案する。
ImageNetデータセットで75.1%の精度を達成しており、これは同じ検索空間を使った最先端の手法よりも高い。
論文 参考訳(メタデータ) (2020-05-29T09:02:16Z) - Deep Randomized Neural Networks [12.333836441649343]
ランダム化されたニューラルネットワークは、ほとんどの接続が固定されたニューラルネットワークの挙動を探索する。
本章はランダム化ニューラルネットワークの設計と解析に関する主要な側面をすべて調査する。
論文 参考訳(メタデータ) (2020-02-27T17:57:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。