論文の概要: Warm Starting State-Space Models with Automata Learning
- arxiv url: http://arxiv.org/abs/2603.05694v1
- Date: Thu, 05 Mar 2026 21:35:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-09 13:17:44.5783
- Title: Warm Starting State-Space Models with Automata Learning
- Title(参考訳): 自動学習によるウォームスタート状態空間モデル
- Authors: William Fishell, Sam Nicholas Kouteili, Mark Santolucito,
- Abstract要約: ムーアマシンは状態空間モデル(SSM)として正確に実現可能であることを証明した。
我々は,SSMの学習を受動的・能動的オートマトン学習と比較した。
我々は,SSMがシンボル法よりも桁違いに多くのデータを必要とし,状態構造を学習できないことを示す。
- 参考スコア(独自算出の注目度): 0.7748670137746999
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We prove that Moore machines can be exactly realized as state-space models (SSMs), establishing a formal correspondence between symbolic automata and these continuous machine learning architectures. These Moore-SSMs preserve both the complete symbolic structure and input-output behavior of the original Moore machine, but operate in Euclidean space. With this correspondence, we compare the training of SSMs with both passive and active automata learning. In recovering automata from the SYNTCOMP benchmark, we show that SSMs require orders of magnitude more data than symbolic methods and fail to learn state structure. This suggests that symbolic structure provides a strong inductive bias for learning these systems. We leverage this insight to combine the strengths of both automata learning and SSMs in order to learn complex systems efficiently. We learn an adaptive arbitration policy on a suite of arbiters from SYNTCOMP and show that initializing SSMs with symbolically-learned approximations learn both faster and better. We see 2-5 times faster convergence compared to randomly initialized models and better overall model accuracies on test data. Our work lifts automata learning out of purely discrete spaces, enabling principled exploitation of symbolic structure in continuous domains for efficiently learning in complex settings.
- Abstract(参考訳): ムーアマシンは状態空間モデル(SSM)として正確に実現可能であることを証明し、シンボルオートマトンとこれらの連続機械学習アーキテクチャとの正式な対応を確立する。
これらのムーア-SSMは、元のムーアマシンの完全なシンボリック構造と入出力挙動の両方を保持するが、ユークリッド空間で作用する。
この対応により,SSMの学習と受動的・能動的オートマトン学習を比較した。
SynTCOMPベンチマークからオートマトンを復元する際、SSMはシンボリックな手法よりも桁違いに多くのデータを必要とし、状態構造を学習できないことを示す。
このことは、記号構造がこれらのシステムを学ぶための強い帰納バイアスをもたらすことを示唆している。
我々はこの知見を利用して、複雑なシステムを効率的に学習するために、自動学習とSSMの長所を組み合わせる。
我々は,SynTCOMP からアダプティブな調停ポリシーを学習し,シンボリックに学習した近似を用いた SSM の初期化がより速く,より良くなることを示す。
ランダムな初期化モデルと比較して2~5倍の収束が得られ、テストデータに対する全体的なモデル精度が向上する。
我々の研究は、純粋に離散的な空間から自動学習を持ち出し、複雑な環境で効率的に学習するための連続領域における記号構造を原則的に活用することを可能にする。
関連論文リスト
- Bridging Expressivity and Scalability with Adaptive Unitary SSMs [15.244653633181303]
本稿では,適応ユニタリ状態空間モデル(Adaptive Unitary State Space Model, AUSSM)を紹介する。
AUSSMとそのハイブリッド変種であるMambaoutperformが、パリティやモジュラー算術といった形式的なタスクでSSMに先立つことを示す。
この結果から,ユニタリ反復は記号的および連続的シーケンスモデリングの両方において,強力かつ効率的な帰納的バイアスを与えることが示された。
論文 参考訳(メタデータ) (2025-07-07T17:47:16Z) - Mamba-FSCIL: Dynamic Adaptation with Selective State Space Model for Few-Shot Class-Incremental Learning [115.79349923044663]
FSCIL(Few-shot class-incremental Learning)は、限られた例から新しいクラスを段階的に学習することを目的としている。
静的アーキテクチャは固定パラメータ空間に依存して、逐次到着するデータから学習し、現在のセッションに過度に適合する傾向がある。
本研究では,FSCILにおける選択状態空間モデル(SSM)の可能性について検討する。
論文 参考訳(メタデータ) (2024-07-08T17:09:39Z) - Sparse Modular Activation for Efficient Sequence Modeling [94.11125833685583]
線形状態空間モデルと自己アテンション機構を組み合わせた最近のモデルでは、様々なシーケンスモデリングタスクにおいて顕著な結果が示されている。
現在のアプローチでは、アテンションモジュールを静的かつ均一に入力シーケンスのすべての要素に適用し、最適以下の品質効率のトレードオフをもたらす。
SMA(Sparse Modular Activation)は,ニューラルネットワークが配列要素のサブモジュールを異なる方法でスパースに活性化する機構である。
論文 参考訳(メタデータ) (2023-06-19T23:10:02Z) - Network Classifiers Based on Social Learning [71.86764107527812]
空間と時間に対して独立に訓練された分類器を結合する新しい手法を提案する。
提案したアーキテクチャは、ラベルのないデータで時間とともに予測性能を改善することができる。
この戦略は高い確率で一貫した学習をもたらすことが示され、未訓練の分類器に対して頑健な構造が得られる。
論文 参考訳(メタデータ) (2020-10-23T11:18:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。