論文の概要: Inference of Deterministic Finite Automata via Q-Learning
- arxiv url: http://arxiv.org/abs/2510.17386v1
- Date: Mon, 20 Oct 2025 10:23:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:39.407902
- Title: Inference of Deterministic Finite Automata via Q-Learning
- Title(参考訳): Q-Learningによる決定論的有限オートマトンの推定
- Authors: Elaheh Hosseinkhani, Martin Leucker,
- Abstract要約: 本稿では、決定論的有限オートマトンを受動的に推定するために、よく知られた強化学習アルゴリズムであるQ-learningを用いて検討する。
これは、状態-作用対を報酬にマッピングする学習されたQ-函数が有限領域上のDFAの遷移関数として再解釈できるという中心的な洞察に基づいている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traditional approaches to inference of deterministic finite-state automata (DFA) stem from symbolic AI, including both active learning methods (e.g., Angluin's L* algorithm and its variants) and passive techniques (e.g., Biermann and Feldman's method, RPNI). Meanwhile, sub-symbolic AI, particularly machine learning, offers alternative paradigms for learning from data, such as supervised, unsupervised, and reinforcement learning (RL). This paper investigates the use of Q-learning, a well-known reinforcement learning algorithm, for the passive inference of deterministic finite automata. It builds on the core insight that the learned Q-function, which maps state-action pairs to rewards, can be reinterpreted as the transition function of a DFA over a finite domain. This provides a novel bridge between sub-symbolic learning and symbolic representations. The paper demonstrates how Q-learning can be adapted for automaton inference and provides an evaluation on several examples.
- Abstract(参考訳): 決定論的有限状態オートマトン(DFA)の推論への伝統的なアプローチは、能動的学習法(例えば、アングルインのL*アルゴリズムとその変種)と受動的手法(例えば、ビエルマンとフェルドマンの手法、RPNI)の両方を含む象徴的AIに由来する。
一方、サブシンボリックAI、特に機械学習は、教師なし、教師なし、強化学習(RL)といったデータから学ぶための代替パラダイムを提供する。
本稿では、決定論的有限オートマトンを受動的に推定するために、よく知られた強化学習アルゴリズムであるQ-learningを用いて検討する。
これは、状態-作用対を報酬にマッピングする学習されたQ-函数が有限領域上のDFAの遷移関数として再解釈できるという中心的な洞察に基づいている。
これは、サブシンボリック学習とシンボリック表現の間に新しい橋渡しを提供する。
本稿では、自動推論にQ-ラーニングをどのように適用できるかを示し、いくつかの例について評価する。
関連論文リスト
- LatentQA: Teaching LLMs to Decode Activations Into Natural Language [72.87064562349742]
自然言語におけるモデルアクティベーションに関するオープンな疑問に答えるタスクであるLatentQAを紹介する。
本稿では,アクティベーションと関連する質問応答ペアのデータセット上で,デコーダLLMを微調整するLatent Interpretation Tuning (LIT)を提案する。
我々のデコーダはまた、ステレオタイプ付き文のモデルのデバイアス化や世代ごとの感情制御など、モデルを制御するために使用する差別化可能な損失も規定している。
論文 参考訳(メタデータ) (2024-12-11T18:59:33Z) - Learning Quantitative Automata Modulo Theories [17.33092604696224]
本稿では,学習者が帰納的推論によって有効なオートマトンを推論する,能動的学習アルゴリズムQUINTICを提案する。
本評価では, 累積, 減算, 積, 量的オートマトンを学習するために, 有理理論を利用する。
論文 参考訳(メタデータ) (2024-11-15T21:51:14Z) - A didactic approach to quantum machine learning with a single qubit [68.8204255655161]
我々は、データ再ロード技術を用いて、単一のキュービットで学習するケースに焦点を当てる。
我々は、Qiskit量子コンピューティングSDKを用いて、おもちゃと現実世界のデータセットに異なる定式化を実装した。
論文 参考訳(メタデータ) (2022-11-23T18:25:32Z) - Learning Task Automata for Reinforcement Learning using Hidden Markov
Models [37.69303106863453]
本稿では,非マルコフ型タスク仕様を簡潔な有限状態タスクオートマトンとして学習するための新しいパイプラインを提案する。
我々は,その製品 MDP を部分的に観測可能な MDP として扱い,よく知られた Baum-Welch アルゴリズムを用いて隠れマルコフモデルを学習することで,仕様のオートマトンと環境の MDP からなるモデルである製品 MDP を学習する。
我々の学習タスクオートマトンはタスクをその構成サブタスクに分解し、RLエージェントが後に最適なポリシーを合成できる速度を改善する。
論文 参考訳(メタデータ) (2022-08-25T02:58:23Z) - Stabilizing Q-learning with Linear Architectures for Provably Efficient
Learning [53.17258888552998]
本研究では,線形関数近似を用いた基本的な$Q$-learningプロトコルの探索変種を提案する。
このアルゴリズムの性能は,新しい近似誤差というより寛容な概念の下で,非常に優雅に低下することを示す。
論文 参考訳(メタデータ) (2022-06-01T23:26:51Z) - Deep Algorithmic Question Answering: Towards a Compositionally Hybrid AI
for Algorithmic Reasoning [0.0]
問題の解答におけるアルゴリズム推論の課題は、AIに対する"システム"アプローチに効果的に取り組むことができる、と我々は主張する。
本稿では,QA,Deep Algorithmic Question Answeringのためのアルゴリズム推論手法を提案する。
論文 参考訳(メタデータ) (2021-09-16T14:28:18Z) - Symbolic AI for XAI: Evaluating LFIT Inductive Programming for Fair and
Explainable Automatic Recruitment [11.460075612587591]
我々は,与えられたブラックボックスシステムと同等の命題論理理論を学習するICP手法を提案する。
本稿では,この問題に対するLFITの表現性を示し,他の領域に適用可能なスキームを提案する。
論文 参考訳(メタデータ) (2020-12-01T09:36:59Z) - Induction and Exploitation of Subgoal Automata for Reinforcement
Learning [75.55324974788475]
本稿では,Regressed Learning (RL)タスクにおけるサブゴールの学習と活用のためのISAを提案する。
ISAは、タスクのサブゴールによってエッジがラベル付けされたオートマトンであるサブゴールオートマトンを誘導することで強化学習をインターリーブする。
サブゴールオートマトンはまた、タスクの完了を示す状態と、タスクが成功せずに完了したことを示す状態の2つの特別な状態で構成されている。
論文 参考訳(メタデータ) (2020-09-08T16:42:55Z) - Explainable AI for Classification using Probabilistic Logic Inference [9.656846523452502]
説明可能な分類法を提案する。
本手法は,まず学習データから記号的知識ベースを構築し,その知識ベース上で線形プログラミングによる確率的推論を行う。
これは、ある分類を説明として責任を負う決定的な特徴を特定し、アートリー値ベースの手法であるSHAPに類似した結果を生成する。
論文 参考訳(メタデータ) (2020-05-05T11:39:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。