論文の概要: Reconstructing cellular automata rules from observations at
nonconsecutive times
- arxiv url: http://arxiv.org/abs/2012.02179v2
- Date: Sun, 14 Feb 2021 22:22:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-23 18:30:30.930069
- Title: Reconstructing cellular automata rules from observations at
nonconsecutive times
- Title(参考訳): 非連続時間観測によるセルオートマトン規則の再構成
- Authors: Veit Elser
- Abstract要約: 最近の実験では、コンウェイのゲーム・オブ・ライフ・オートマトン(Game of Life Automaticon)の動作を予測するために、ディープニューラルネットワークをトレーニングできることが示されている。
本稿では,制約予測に基づくネットワークライクな手法について述べる。
本手法は,隣接するセルから入力を受信する1次元バイナリセルオートマトン上で実証する。
- 参考スコア(独自算出の注目度): 7.056222499095849
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent experiments by Springer and Kenyon have shown that a deep neural
network can be trained to predict the action of $t$ steps of Conway's Game of
Life automaton given millions of examples of this action on random initial
states. However, training was never completely successful for $t>1$, and even
when successful, a reconstruction of the elementary rule ($t=1$) from $t>1$
data is not within the scope of what the neural network can deliver. We
describe an alternative network-like method, based on constraint projections,
where this is possible. From a single data item this method perfectly
reconstructs not just the automaton rule but also the states in the time steps
it did not see. For a unique reconstruction, the size of the initial state need
only be large enough that it and the $t-1$ states it evolves into contain all
possible automaton input patterns. We demonstrate the method on 1D binary
cellular automata that take inputs from $n$ adjacent cells. The unknown rules
in our experiments are not restricted to simple rules derived from a few linear
functions on the inputs (as in Game of Life), but include all $2^{2^n}$
possible rules on $n$ inputs. Our results extend to $n=6$, for which exhaustive
rule-search is not feasible. By relaxing translational symmetry in space and
also time, our method is attractive as a platform for the learning of binary
data, since the discreteness of the variables does not pose the same challenge
it does for gradient-based methods.
- Abstract(参考訳): SpringerとKenyonによる最近の実験では、このアクションのランダム初期状態に対する数百万の例から、ConwayのGame of Lifeオートマトンにおける$t$のアクションを予測するために、ディープニューラルネットワークをトレーニングできることが示されている。
しかし、$t>1$でトレーニングが完全に成功したことはなく、たとえ成功したとしても、$t>1$データから基本ルール($t=1$)を再構築することは、ニューラルネットワークが提供できる範囲内にはない。
本稿では,制約射影に基づく代替ネットワーク的手法について述べる。
1つのデータ項目から、このメソッドはオートマトンルールだけでなく、見たことのない時間ステップの状態も完全に再構築する。
ユニークな再構成では、初期状態のサイズは十分の大きさでなければならず、$t-1$状態は全ての可能なオートマトン入力パターンを含むように進化する。
1d二項セルオートマトンを用いて,n$隣接セルから入力を受ける方法を示す。
実験における未知の規則は、入力上の数個の線型関数(ゲーム・オブ・ライフ(英語版)など)から導かれる単純な規則に限らず、$n$入力上の可能な規則を全て含んでいる。
この結果は$n=6$に拡張され、徹底的なルール検索は不可能である。
空間および時間における翻訳対称性を緩和することで,変数の離散性は勾配に基づく手法と同じ課題を生じないため,バイナリデータの学習のためのプラットフォームとして魅力的な手法である。
関連論文リスト
- IT$^3$: Idempotent Test-Time Training [95.78053599609044]
本稿では,分散シフトの課題に対処する新しいアプローチであるIdempotent Test-Time Training (IT$3$)を紹介する。
IT$3$は、イデオロジェンスの普遍性に基づいている。
画像分類の劣化など,様々なタスクにまたがるアプローチの汎用性を実証する。
論文 参考訳(メタデータ) (2024-10-05T15:39:51Z) - Transfer Learning for Latent Variable Network Models [18.31057192626801]
潜在変数ネットワークモデルにおける推定のための伝達学習について検討する。
潜伏変数が共有されている場合、エラーの消滅が可能であることを示す。
我々のアルゴリズムは、$o(1)$エラーを達成し、ソースやターゲットネットワーク上でパラメトリック形式を仮定しない。
論文 参考訳(メタデータ) (2024-06-05T16:33:30Z) - Improved Algorithm for Adversarial Linear Mixture MDPs with Bandit
Feedback and Unknown Transition [71.33787410075577]
線形関数近似,未知遷移,および逆損失を用いた強化学習について検討した。
我々は高い確率で$widetildeO(dsqrtHS3K + sqrtHSAK)$ regretを実現する新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-07T15:03:50Z) - Self-Directed Linear Classification [50.659479930171585]
オンライン分類では、学習者は、誤りの総数を最小限に抑えるために、オンラインでラベルを予測することを目的としている。
そこで本研究では,予測順序の選択能力について検討し,最低次学習とランダム次学習の分離を初めて確立する。
論文 参考訳(メタデータ) (2023-08-06T15:38:44Z) - Generalization and Stability of Interpolating Neural Networks with
Minimal Width [37.908159361149835]
補間系における勾配によって訓練された浅層ニューラルネットワークの一般化と最適化について検討する。
トレーニング損失数は$m=Omega(log4 (n))$ニューロンとニューロンを最小化する。
m=Omega(log4 (n))$のニューロンと$Tapprox n$で、テスト損失のトレーニングを$tildeO (1/)$に制限します。
論文 参考訳(メタデータ) (2023-02-18T05:06:15Z) - Training Overparametrized Neural Networks in Sublinear Time [14.918404733024332]
ディープラーニングには膨大な計算とエネルギーのコストが伴う。
探索木の小さな部分集合として、二分ニューラルネットワークの新しいサブセットを示し、それぞれが探索木のサブセット(Ds)に対応する。
我々はこの見解が深層ネットワーク(Ds)の分析解析にさらに応用できると考えている。
論文 参考訳(メタデータ) (2022-08-09T02:29:42Z) - High-dimensional Asymptotics of Feature Learning: How One Gradient Step
Improves the Representation [89.21686761957383]
2層ネットワークにおける第1層パラメータ $boldsymbolW$ の勾配降下ステップについて検討した。
我々の結果は、一つのステップでもランダムな特徴に対してかなりの優位性が得られることを示した。
論文 参考訳(メタデータ) (2022-05-03T12:09:59Z) - Does Preprocessing Help Training Over-parameterized Neural Networks? [19.64638346701198]
我々は,$Omega(mnd)$バリアをバイパスする2つの新しい前処理手法を提案する。
本研究は,これまでに確立された高速訓練法について理論的考察を行った。
論文 参考訳(メタデータ) (2021-10-09T18:16:23Z) - Improved Sample Complexity for Incremental Autonomous Exploration in
MDPs [132.88757893161699]
我々は $epsilon$-optimal 目標条件付きポリシーのセットを学び、$ L$ ステップ内で段階的に到達可能なすべての状態を達成します。
DisCoは、コストに敏感な最短経路問題に対して$epsilon/c_min$-optimalポリシーを返すことができる最初のアルゴリズムです。
論文 参考訳(メタデータ) (2020-12-29T14:06:09Z) - Shuffling Recurrent Neural Networks [97.72614340294547]
隠れ状態 $h_t$ を以前の隠れ状態 $h_t-1$ のベクトル要素を置換することにより、隠れ状態 $h_t$ が得られる新しいリカレントニューラルネットワークモデルを提案する。
私たちのモデルでは、予測は第2の学習関数によって与えられ、隠された状態 $s(h_t)$ に適用されます。
論文 参考訳(メタデータ) (2020-07-14T19:36:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。