論文の概要: Language Inference with Multi-head Automata through Reinforcement
Learning
- arxiv url: http://arxiv.org/abs/2010.10141v1
- Date: Tue, 20 Oct 2020 09:11:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 07:48:08.687776
- Title: Language Inference with Multi-head Automata through Reinforcement
Learning
- Title(参考訳): 強化学習によるマルチヘッドオートマタによる言語推論
- Authors: Alper \c{S}ekerci, \"Ozlem Salehi
- Abstract要約: 6つの異なる言語が強化学習問題として定式化されている。
エージェントは単純なマルチヘッドオートマトンとしてモデル化される。
遺伝的アルゴリズムは一般にQ学習アルゴリズムよりも優れている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The purpose of this paper is to use reinforcement learning to model learning
agents which can recognize formal languages. Agents are modeled as simple
multi-head automaton, a new model of finite automaton that uses multiple heads,
and six different languages are formulated as reinforcement learning problems.
Two different algorithms are used for optimization. First algorithm is
Q-learning which trains gated recurrent units to learn optimal policies. The
second one is genetic algorithm which searches for the optimal solution by
using evolution inspired operations. The results show that genetic algorithm
performs better than Q-learning algorithm in general but Q-learning algorithm
finds solutions faster for regular languages.
- Abstract(参考訳): 本研究の目的は,形式言語を認識できるモデル学習エージェントとして強化学習を利用することである。
エージェントは単純なマルチヘッドオートマトンとしてモデル化され、複数のヘッドを使用する有限オートマトンの新しいモデルであり、6つの異なる言語は強化学習問題として定式化されている。
最適化には2つの異なるアルゴリズムが用いられる。
第一のアルゴリズムはQラーニングであり、反復単位を訓練して最適なポリシーを学ぶ。
2つ目は遺伝的アルゴリズムで、進化に触発された操作を用いて最適解を探索する。
その結果、遺伝的アルゴリズムは一般のQ学習アルゴリズムよりも優れた性能を示すが、Q学習アルゴリズムは正規言語ではより高速な解を求める。
関連論文リスト
- From Decoding to Meta-Generation: Inference-time Algorithms for Large Language Models [63.188607839223046]
この調査は、推論中に計算をスケールするメリットに焦点を当てている。
我々はトークンレベルの生成アルゴリズム、メタジェネレーションアルゴリズム、効率的な生成という3つの領域を統一的な数学的定式化の下で探索する。
論文 参考訳(メタデータ) (2024-06-24T17:45:59Z) - Algorithm Evolution Using Large Language Model [18.03090066194074]
大規模言語モデル(AEL)を用いた進化的アルゴリズムを提案する。
AELはモデルトレーニングなしでアルゴリズムレベルの進化を行う。
人間の努力とドメイン知識の要求は大幅に削減できる。
論文 参考訳(メタデータ) (2023-11-26T09:38:44Z) - Large Language Model-Enhanced Algorithm Selection: Towards Comprehensive Algorithm Representation [27.378185644892984]
本稿では,Large Language Models (LLM) をアルゴリズム選択に導入する。
LLMはアルゴリズムの構造的・意味的な側面を捉えるだけでなく、文脈的認識とライブラリ機能理解も示している。
選択されたアルゴリズムは、与えられた問題と異なるアルゴリズムの一致度によって決定される。
論文 参考訳(メタデータ) (2023-11-22T06:23:18Z) - The Clock and the Pizza: Two Stories in Mechanistic Explanation of
Neural Networks [59.26515696183751]
ニューラルネットワークにおけるアルゴリズム発見は、時としてより複雑であることを示す。
単純な学習問題でさえ、驚くほど多様なソリューションを許容できることが示されています。
論文 参考訳(メタデータ) (2023-06-30T17:59:13Z) - A Generalist Neural Algorithmic Learner [18.425083543441776]
我々は、幅広いアルゴリズムを実行することを学習できる単一のグラフニューラルネットワークプロセッサを構築している。
マルチタスク方式でアルゴリズムを効果的に学習できることを示す。
論文 参考訳(メタデータ) (2022-09-22T16:41:33Z) - Tree-Based Adaptive Model Learning [62.997667081978825]
我々はKearns-Vazirani学習アルゴリズムを拡張し、時間とともに変化するシステムを扱う。
本稿では,学習前の動作を再利用し,更新し,LearnerLibライブラリに実装し,大規模な実例で評価する学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-08-31T21:24:22Z) - Accelerating GMRES with Deep Learning in Real-Time [0.0]
GMRESの解決までの時間を短縮するために使用できるリアルタイム機械学習アルゴリズムを紹介します。
私たちのフレームワークは、ディープラーニングアルゴリズムをその場で統合する点で、斬新です。
論文 参考訳(メタデータ) (2021-03-19T18:21:38Z) - Evolving Reinforcement Learning Algorithms [186.62294652057062]
メタラーニング強化学習アルゴリズムの手法を提案する。
学習アルゴリズムはドメインに依存しないため、トレーニング中に見えない新しい環境に一般化することができる。
従来の制御タスク、gridworld型タスク、atariゲームよりも優れた一般化性能を得る2つの学習アルゴリズムに注目した。
論文 参考訳(メタデータ) (2021-01-08T18:55:07Z) - Towards Optimally Efficient Tree Search with Deep Learning [76.64632985696237]
本稿では,線形モデルから信号整数を推定する古典整数最小二乗問題について検討する。
問題はNPハードであり、信号処理、バイオインフォマティクス、通信、機械学習といった様々な応用でしばしば発生する。
本稿では, 深いニューラルネットワークを用いて, 単純化されたメモリバウンドA*アルゴリズムの最適推定を推定し, HATSアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-01-07T08:00:02Z) - AutoML-Zero: Evolving Machine Learning Algorithms From Scratch [76.83052807776276]
基本数学的操作をビルディングブロックとして使うだけで,完全な機械学習アルゴリズムを自動的に発見できることが示される。
汎用的な検索空間を通じて人間のバイアスを大幅に低減する新しいフレームワークを導入することでこれを実証する。
機械学習アルゴリズムをゼロから発見する上で、これらの予備的な成功は、この分野における有望な新しい方向性を示していると信じている。
論文 参考訳(メタデータ) (2020-03-06T19:00:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。