論文の概要: Heuristic Search Planning with Deep Neural Networks using Imitation,
Attention and Curriculum Learning
- arxiv url: http://arxiv.org/abs/2112.01918v1
- Date: Fri, 3 Dec 2021 14:01:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-06 19:09:08.657230
- Title: Heuristic Search Planning with Deep Neural Networks using Imitation,
Attention and Curriculum Learning
- Title(参考訳): 模倣・注意・カリキュラム学習を用いた深層ニューラルネットワークによるヒューリスティック探索計画
- Authors: Leah Chrestien, Tomas Pevny, Antonin Komenda, Stefan Edelkamp
- Abstract要約: 本稿では、最適計画模倣により、状態空間の遠い部分に関連する能力を学ぶためのネットワークモデルを提案する。
難易度の増加に伴う問題の創出における手法の限界に対処するために,新たに解決した問題インスタンスをトレーニングセットに追加するカリキュラム学習の利用を実演する。
- 参考スコア(独自算出の注目度): 1.0323063834827413
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning a well-informed heuristic function for hard task planning domains is
an elusive problem. Although there are known neural network architectures to
represent such heuristic knowledge, it is not obvious what concrete information
is learned and whether techniques aimed at understanding the structure help in
improving the quality of the heuristics. This paper presents a network model to
learn a heuristic capable of relating distant parts of the state space via
optimal plan imitation using the attention mechanism, which drastically
improves the learning of a good heuristic function. To counter the limitation
of the method in the creation of problems of increasing difficulty, we
demonstrate the use of curriculum learning, where newly solved problem
instances are added to the training set, which, in turn, helps to solve
problems of higher complexities and far exceeds the performances of all
existing baselines including classical planning heuristics. We demonstrate its
effectiveness for grid-type PDDL domains.
- Abstract(参考訳): ハードタスク計画ドメインのためのよく知られたヒューリスティック関数の学習は、不可解な問題である。
このようなヒューリスティックな知識を表すニューラルネットワークアーキテクチャは知られているが、具体的な情報が何を学ぶのか、構造を理解するための技術がヒューリスティックスの品質向上に役立つのかは明らかではない。
本稿では,注意機構を用いた最適計画模倣により,状態空間の遠隔部分を関連付けることのできるヒューリスティックな学習をネットワークモデルで学習し,優れたヒューリスティック関数の学習を劇的に改善する。
難易度を増大させる問題作成における手法の限界に対処するため,学習セットに新たに解決された問題インスタンスを追加して,より複雑な問題の解決に役立ち,古典的計画ヒューリスティックスを含む既存のすべてのベースラインのパフォーマンスをはるかに上回るようなカリキュラム学習の活用を実演する。
グリッド型PDDLドメインの有効性を示す。
関連論文リスト
- A Unified Framework for Neural Computation and Learning Over Time [56.44910327178975]
Hamiltonian Learningはニューラルネットワークを"時間とともに"学習するための新しい統合フレームワーク
i)外部ソフトウェアソルバを必要とせずに統合できる、(ii)フィードフォワードおよびリカレントネットワークにおける勾配に基づく学習の概念を一般化する、(iii)新しい視点で開放する、という微分方程式に基づいている。
論文 参考訳(メタデータ) (2024-09-18T14:57:13Z) - Coding for Intelligence from the Perspective of Category [66.14012258680992]
符号化の対象はデータの圧縮と再構成、インテリジェンスである。
最近の傾向は、これらの2つの分野の潜在的均一性を示している。
本稿では,カテゴリ理論の観点から,インテリジェンスのためのコーディングの新たな問題を提案する。
論文 参考訳(メタデータ) (2024-07-01T07:05:44Z) - Reasoning Algorithmically in Graph Neural Networks [1.8130068086063336]
ニューラルネットワークの適応学習能力にアルゴリズムの構造的および規則に基づく推論を統合することを目的としている。
この論文は、この領域の研究に理論的および実践的な貢献を提供する。
論文 参考訳(メタデータ) (2024-02-21T12:16:51Z) - Computation-efficient Deep Learning for Computer Vision: A Survey [121.84121397440337]
ディープラーニングモデルは、さまざまな視覚的知覚タスクにおいて、人間レベルのパフォーマンスに到達または超えた。
ディープラーニングモデルは通常、重要な計算資源を必要とし、現実のシナリオでは非現実的な電力消費、遅延、または二酸化炭素排出量につながる。
新しい研究の焦点は計算効率のよいディープラーニングであり、推論時の計算コストを最小限に抑えつつ、良好な性能を達成することを目指している。
論文 参考訳(メタデータ) (2023-08-27T03:55:28Z) - Learning Good Features to Transfer Across Tasks and Domains [16.05821129333396]
まず、与えられたドメイン内のタスク固有の深い機能間のマッピングを学習することで、タスク間でそのような知識を共有できることを示します。
そして、ニューラルネットワークによって実装されたこのマッピング関数が、新しい未知の領域に一般化可能であることを示す。
論文 参考訳(メタデータ) (2023-01-26T18:49:39Z) - Hierarchically Structured Task-Agnostic Continual Learning [0.0]
本研究では,連続学習のタスク非依存的な視点を取り入れ,階層的情報理論の最適性原理を考案する。
我々は,情報処理経路の集合を作成することで,忘れを緩和する,Mixture-of-Variational-Experts層と呼ばれるニューラルネットワーク層を提案する。
既存の連続学習アルゴリズムのようにタスク固有の知識を必要としない。
論文 参考訳(メタデータ) (2022-11-14T19:53:15Z) - The Neural Race Reduction: Dynamics of Abstraction in Gated Networks [12.130628846129973]
本稿では,情報フローの経路が学習力学に与える影響をスキーマ化するGated Deep Linear Networkフレームワークを紹介する。
正確な還元と、特定の場合において、学習のダイナミクスに対する正確な解が導出されます。
我々の研究は、ニューラルネットワークと学習に関する一般的な仮説を生み出し、より複雑なアーキテクチャの設計を理解するための数学的アプローチを提供する。
論文 参考訳(メタデータ) (2022-07-21T12:01:03Z) - A neural anisotropic view of underspecification in deep learning [60.119023683371736]
ニューラルネットが問題の未特定化を扱う方法が,データ表現に大きく依存していることを示す。
深層学習におけるアーキテクチャ的インダクティブバイアスの理解は,これらのシステムの公平性,堅牢性,一般化に対処する上で基本的であることを強調した。
論文 参考訳(メタデータ) (2021-04-29T14:31:09Z) - Developing Constrained Neural Units Over Time [81.19349325749037]
本稿では,既存のアプローチと異なるニューラルネットワークの定義方法に焦点をあてる。
ニューラルネットワークの構造は、データとの相互作用にも拡張される制約の特別なクラスによって定義される。
提案した理論は時間領域にキャストされ, データを順序づけられた方法でネットワークに提示する。
論文 参考訳(メタデータ) (2020-09-01T09:07:25Z) - Learning Connectivity of Neural Networks from a Topological Perspective [80.35103711638548]
本稿では,ネットワークを解析のための完全なグラフに表現するためのトポロジ的視点を提案する。
接続の規模を反映したエッジに学習可能なパラメータを割り当てることにより、学習プロセスを異なる方法で行うことができる。
この学習プロセスは既存のネットワークと互換性があり、より大きな検索空間と異なるタスクへの適応性を持っている。
論文 参考訳(メタデータ) (2020-08-19T04:53:31Z) - Structure preserving deep learning [1.2263454117570958]
深層学習は、大きな関心事のトピックとして、前景に浮かび上がっています。
ディープラーニングの適用には、いくつかの挑戦的な数学的問題がある。
既存のディープラーニング手法の構造を数学的に理解する努力が増えている。
論文 参考訳(メタデータ) (2020-06-05T10:59:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。