論文の概要: Habits of Mind: Reusing Action Sequences for Efficient Planning
- arxiv url: http://arxiv.org/abs/2306.05298v1
- Date: Thu, 8 Jun 2023 15:42:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-09 13:35:34.527655
- Title: Habits of Mind: Reusing Action Sequences for Efficient Planning
- Title(参考訳): 心の習慣:効率的な計画のための行動系列の再利用
- Authors: No\'emi \'Eltet\H{o} and Peter Dayan
- Abstract要約: 我々は、より高速かつ正確に計画を行うために、エクササイズされたアクションシーケンスが使用できる可能性についても検討する。
我々は、異なるスケールで統計的に信頼性の高い構造を発見し、活用する柔軟なベイズ作用チャンキング機構を用いる。
これにより、モンテカルロの木探索プランナに組み込むことのできる、より短く、より長いルーチンが生まれる。
- 参考スコア(独自算出の注目度): 14.315501760755609
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: When we exercise sequences of actions, their execution becomes more fluent
and precise. Here, we consider the possibility that exercised action sequences
can also be used to make planning faster and more accurate by focusing
expansion of the search tree on paths that have been frequently used in the
past, and by reducing deep planning problems to shallow ones via multi-step
jumps in the tree. To capture such sequences, we use a flexible Bayesian action
chunking mechanism which finds and exploits statistically reliable structure at
different scales. This gives rise to shorter or longer routines that can be
embedded into a Monte-Carlo tree search planner. We show the benefits of this
scheme using a physical construction task patterned after tangrams.
- Abstract(参考訳): アクションのシーケンスを実行すると、それらの実行はより流動的で正確になります。
そこで本研究では,これまで頻繁に用いられてきた経路に探索木の拡張を集中させることにより,より高速かつ正確な計画を立てることが可能であり,また,多段ジャンプによる浅瀬への深い計画問題を低減できる可能性を検討する。
このようなシーケンスをキャプチャするために、異なるスケールで統計的に信頼できる構造を発見し、活用する柔軟なベイズ作用チャンキング機構を用いる。
これにより、モンテカルロの木探索プランナに組み込むことのできる、より短く、より長いルーチンが生まれる。
本手法の利点は,タングラムの後にパターン化された物理構成タスクを用いて示す。
関連論文リスト
- Tree-Planner: Efficient Close-loop Task Planning with Large Language
Models [65.16099990195016]
Tree-Plannerは、大きな言語モデルでタスクプランニングを3つの異なるフェーズに再構成する。
Tree-Plannerは高い効率を維持しながら最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-10-12T17:59:50Z) - Skip-Plan: Procedure Planning in Instructional Videos via Condensed
Action Space Learning [85.84504287685884]
Skip-Plan(スキップ・プラン)は、訓練ビデオにおけるプロシージャ計画のための凝縮された行動空間学習法である。
アクションチェーン内の不確実なノードやエッジをスキップすることで、長いシーケンス関数と複雑なシーケンス関数を短いが信頼できるものに転送する。
我々のモデルは、凝縮された作用空間内のアクションシーケンス内で、あらゆる種類の信頼できる部分関係を探索する。
論文 参考訳(メタデータ) (2023-10-01T08:02:33Z) - Bayesian post-hoc regularization of random forests [0.0]
Random Forestsは、さまざまな機械学習タスクで広く使われている強力なアンサンブル学習アルゴリズムである。
そこで本研究では,葉ノードが根に近づいた場合の信頼性パターンを活用するために,ポストホック正則化を提案する。
各種機械学習データセットを用いて,本手法の性能評価を行った。
論文 参考訳(メタデータ) (2023-06-06T14:15:29Z) - Continuous Monte Carlo Graph Search [61.11769232283621]
連続モンテカルログラフサーチ(Continuous Monte Carlo Graph Search, CMCGS)は、モンテカルログラフサーチ(MCTS)のオンラインプランニングへの拡張である。
CMCGSは、計画中、複数の州で同じ行動方針を共有することで高いパフォーマンスが得られるという洞察を生かしている。
並列化によってスケールアップすることができ、学習力学モデルによる連続制御においてクロスエントロピー法(CEM)よりも優れている。
論文 参考訳(メタデータ) (2022-10-04T07:34:06Z) - Neural Pruning via Growing Regularization [82.9322109208353]
プルーニングの2つの中心的な問題:プルーニングのスケジュールと重み付けの重要度だ。
具体的には, ペナルティ要因が増大するL2正規化変種を提案し, 精度が著しく向上することを示した。
提案アルゴリズムは,構造化プルーニングと非構造化プルーニングの両方において,大規模データセットとネットワークの実装が容易かつスケーラブルである。
論文 参考訳(メタデータ) (2020-12-16T20:16:28Z) - Online Bayesian Goal Inference for Boundedly-Rational Planning Agents [46.60073262357339]
本稿では,行動の最適シーケンスと非最適シーケンスの両方からエージェントの目標をオンラインで推測できるアーキテクチャを提案する。
我々のアーキテクチャモデルは、リプランニングによって検索と実行をインターリーブする有界な有界プランナーとして機能する。
我々は,これらのモデルのオンライン再計画仮定を利用するシーケンシャルモンテカルロアルゴリズムであるシーケンシャル逆計画探索(SIPS)を開発した。
論文 参考訳(メタデータ) (2020-06-13T01:48:10Z) - Divide-and-Conquer Monte Carlo Tree Search For Goal-Directed Planning [78.65083326918351]
暗黙的な逐次計画の仮定に代わるものを検討する。
本稿では,最適計画の近似を行うため,Divide-and-Conquer Monte Carlo Tree Search (DC-MCTS)を提案する。
計画順序に対するこのアルゴリズム的柔軟性は,グリッドワールドにおけるナビゲーションタスクの改善に繋がることを示す。
論文 参考訳(メタデータ) (2020-04-23T18:08:58Z) - Flexible and Efficient Long-Range Planning Through Curious Exploration [13.260508939271764]
The Curious Sample Planner can realize temporallyextended plan for a wide range of really 3D task。
対照的に、標準的な計画と学習の方法は、多くの場合、これらのタスクを全く解決しなかったり、膨大な数のトレーニングサンプルでのみ実行できなかったりします。
論文 参考訳(メタデータ) (2020-04-22T21:47:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。