論文の概要: Beyond A*: Better Planning with Transformers via Search Dynamics Bootstrapping
- arxiv url: http://arxiv.org/abs/2402.14083v2
- Date: Fri, 26 Apr 2024 21:05:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-30 23:35:54.685088
- Title: Beyond A*: Better Planning with Transformers via Search Dynamics Bootstrapping
- Title(参考訳): Beyond A*: Search Dynamics Bootstrappingによるトランスフォーマーによるプランニングの改善
- Authors: Lucas Lehnert, Sainbayar Sukhbaatar, DiJia Su, Qinqing Zheng, Paul Mcvay, Michael Rabbat, Yuandong Tian,
- Abstract要約: 我々は、$A*$検索アルゴリズムの探索ダイナミクスを予測するために、エンコーダ・デコーダ変換モデルを訓練する。
我々はこのモデルを微調整し、ソコバンパズル93.7%を最適に解くトランスフォーマーモデルであるサーチフォーマーを得る。
- 参考スコア(独自算出の注目度): 37.59733248822887
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While Transformers have enabled tremendous progress in various application settings, such architectures still trail behind traditional symbolic planners for solving complex decision making tasks. In this work, we demonstrate how to train Transformers to solve complex planning tasks. This is accomplished by training an encoder-decoder Transformer model to predict the search dynamics of the $A^*$ search algorithm. We fine tune this model to obtain a Searchformer, a Transformer model that optimally solves previously unseen Sokoban puzzles 93.7% of the time, while using up to 26.8% fewer search steps than the $A^*$ implementation that was used for training initially. In our training method, $A^*$'s search dynamics are expressed as a token sequence outlining when task states are added and removed into the search tree during symbolic planning. Searchformer significantly outperforms baselines that predict the optimal plan directly with a 5-10$\times$ smaller model size and a 10$\times$ smaller training dataset. Lastly, we demonstrate how Searchformer scales to larger and more complex decision making tasks with improved percentage of solved tasks and shortened search dynamics.
- Abstract(参考訳): Transformerは様々なアプリケーション設定で大幅な進歩を実現しているが、そのようなアーキテクチャは複雑な意思決定タスクを解決するための伝統的なシンボリックプランナーをいまだに遅れている。
本研究では,複雑な計画課題を解決するためにトランスフォーマーを訓練する方法を示す。
これは、$A^*$検索アルゴリズムの探索ダイナミクスを予測するために、エンコーダ・デコーダ変換モデルをトレーニングすることで達成される。
我々はこのモデルを微調整して、それまで目にしなかったソコバンパズルの93.7%を最適に解くトランスフォーマーモデルであるサーチフォーマーを得る。
トレーニング手法では,A^*$の探索ダイナミクスをトークンシーケンスとして表現し,シンボルプランニング中にタスク状態の追加や検索ツリーへの削除を行う。
Searchformerは、5-10$\times$小さなモデルサイズと10$\times$小さなトレーニングデータセットで、最適な計画を直接予測するベースラインを大幅に上回る。
最後に,サーチフォーマーが解いたタスクのパーセンテージを改善し,検索ダイナミクスを短縮することで,より大規模で複雑な意思決定タスクにどのようにスケールするかを示す。
関連論文リスト
- A Large-Scale Exploration of $μ$-Transfer [0.0]
$mu$-Transferは、モデルのスケーリングルールを出力する。
導入者と学習率です
$mu$-Transferはまだ広く採用されていない。
最大10Bパラメータのモデルと最大190Bトークンのトレーニング予算について検討し、重要ケースの大多数を意図した$mu$-Transferが機能することを確認した。
論文 参考訳(メタデータ) (2024-04-08T17:59:44Z) - Pre-train and Search: Efficient Embedding Table Sharding with
Pre-trained Neural Cost Models [56.65200574282804]
効率的なシャーディングのための「事前訓練・探索」パラダイムを提案する。
NeuroShardは、さまざまなシャーディングシナリオをカバーするために、拡張テーブル上のニューラルコストモデルをトレーニングする。
NeuroShardは、ベンチマークシャーディングデータセットの最先端を著しく、一貫して上回る。
論文 参考訳(メタデータ) (2023-05-03T02:52:03Z) - Transformers Learn Shortcuts to Automata [52.015990420075944]
低深度変換器は任意の有限状態オートマトンを計算できる。
我々は,$O(log T)$レイヤを持つ変換器が,長さ$T$の入力シーケンス上で,オートマトンを正確に再現可能であることを示す。
さらに、これらの解の脆性について検討し、潜在的な緩和を提案する。
論文 参考訳(メタデータ) (2022-10-19T17:45:48Z) - CorpusBrain: Pre-train a Generative Retrieval Model for
Knowledge-Intensive Language Tasks [62.22920673080208]
単一ステップ生成モデルは、検索プロセスを劇的に単純化し、エンドツーエンドで最適化することができる。
我々は、事前学習された生成検索モデルをCorpsBrainと名付け、コーパスに関する全ての情報が、追加のインデックスを構築することなく、そのパラメータにエンコードされる。
論文 参考訳(メタデータ) (2022-08-16T10:22:49Z) - Distilling Transformers for Neural Cross-Domain Search [9.865125804658991]
我々はシーケンス・ツー・シーケンス・モデルが概念的には理想であると主張する。
我々は,データ拡張スキームとして,新しい蒸留目標を導出する。
自然言語ソースコード検索をクロスドメイン検索のケーススタディとして用い,近年の自然言語コード検索ベンチマークであるCodeSearchNetチャレンジの現在のリーダを大きく改善することで,このアイデアの有効性を実証する。
論文 参考訳(メタデータ) (2021-08-06T22:30:19Z) - Memory-Efficient Differentiable Transformer Architecture Search [59.47253706925725]
マルチ分割可逆ネットワークを提案し,それをDARTSと組み合わせる。
具体的には、最後のレイヤの出力だけを保存するために、バックプロパゲーション・ウィズ・リコンストラクション・アルゴリズムを考案する。
本稿では,WMT'14,WMT'14,WMT'14,WMT'14,WMT'14,WMT'14の3つのシーケンス・ツー・シーケンス・データセットを用いて検索アーキテクチャを評価する。
論文 参考訳(メタデータ) (2021-05-31T01:52:36Z) - AutoTrans: Automating Transformer Design via Reinforced Architecture
Search [52.48985245743108]
本稿では,手作業に適したトランスフォーマーアーキテクチャを実現するために,レイヤノルムの設定方法,スケール,レイヤ数,ヘッド数,アクティベーション関数などを実証的に検討する。
CoNLL03、Multi-30k、IWSLT14、WMT-14の実験は、探索されたトランスモデルが標準トランスモデルより優れていることを示している。
論文 参考訳(メタデータ) (2020-09-04T08:46:22Z) - Deep-n-Cheap: An Automated Search Framework for Low Complexity Deep
Learning [3.479254848034425]
私たちはディープラーニングモデルを探すためのオープンソースのAutoMLフレームワークであるDeep-n-Cheapを紹介します。
私たちのフレームワークは、ベンチマークとカスタムデータセットの両方へのデプロイをターゲットとしています。
Deep-n-Cheapには、トレーニング時間やパラメータ数とパフォーマンスをトレードオフする、ユーザ管理可能な複雑性ペナルティが含まれている。
論文 参考訳(メタデータ) (2020-03-27T13:00:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。