論文の概要: Cellular automata, many-valued logic, and deep neural networks
- arxiv url: http://arxiv.org/abs/2404.05259v1
- Date: Mon, 8 Apr 2024 07:49:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-09 15:13:56.748597
- Title: Cellular automata, many-valued logic, and deep neural networks
- Title(参考訳): セルオートマトン、多値論理およびディープニューラルネットワーク
- Authors: Yani Zhang, Helmut Bölcskei,
- Abstract要約: 我々は、進化トレースから、細胞オートマトン(CA)の挙動を規定する論理的ルールを学ぶためのディープニューラルネットワークの基本能力を特徴付ける理論を開発する。
これはまず、CAとLukasiewicz命題論理の間の新しい接続を確立することで達成される。
繰り返しニューラルネットワークによりCAの動的挙動を実現できることを示す。
- 参考スコア(独自算出の注目度): 4.6259274880056385
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We develop a theory characterizing the fundamental capability of deep neural networks to learn, from evolution traces, the logical rules governing the behavior of cellular automata (CA). This is accomplished by first establishing a novel connection between CA and Lukasiewicz propositional logic. While binary CA have been known for decades to essentially perform operations in Boolean logic, no such relationship exists for general CA. We demonstrate that many-valued (MV) logic, specifically Lukasiewicz propositional logic, constitutes a suitable language for characterizing general CA as logical machines. This is done by interpolating CA transition functions to continuous piecewise linear functions, which, by virtue of the McNaughton theorem, yield formulae in MV logic characterizing the CA. Recognizing that deep rectified linear unit (ReLU) networks realize continuous piecewise linear functions, it follows that these formulae are naturally extracted from CA evolution traces by deep ReLU networks. A corresponding algorithm together with a software implementation is provided. Finally, we show that the dynamical behavior of CA can be realized by recurrent neural networks.
- Abstract(参考訳): 我々は、進化トレースから、細胞オートマトン(CA)の挙動を規定する論理的ルールを学ぶためのディープニューラルネットワークの基本能力を特徴付ける理論を開発する。
これはまず、CAとLukasiewicz命題論理の間の新しい接続を確立することで達成される。
二項CAはブール論理において本質的に作用することが数十年前から知られているが、一般CAにはそのような関係は存在しない。
本稿では,多値論理,特にLukasiewicz命題論理が一般CAを論理機械として特徴付けるのに適した言語であることを示す。
これは、CA遷移関数を連続部分線型関数に補間することで行われ、マクノートンの定理により、CAを特徴づけるMV論理の式が得られる。
深部修正線形ユニット(ReLU)ネットワークが連続的な断片的線形関数を実現することを認識すると、これらの公式は深部ReLUネットワークによってCA進化トレースから自然に抽出される。
対応するアルゴリズムとソフトウェア実装とが提供される。
最後に、繰り返しニューラルネットワークによりCAの動的挙動を実現できることを示す。
関連論文リスト
- LOGICSEG: Parsing Visual Semantics with Neural Logic Learning and
Reasoning [73.98142349171552]
LOGICSEGは、神経誘導学習と論理推論をリッチデータとシンボリック知識の両方に統合する、全体論的視覚意味論である。
ファジィ論理に基づく連続的な緩和の間、論理式はデータとニューラルな計算グラフに基礎を置いており、論理によるネットワークトレーニングを可能にする。
これらの設計によりLOGICSEGは、既存のセグメンテーションモデルに容易に統合できる汎用的でコンパクトなニューラル論理マシンとなる。
論文 参考訳(メタデータ) (2023-09-24T05:43:19Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - When Deep Learning Meets Polyhedral Theory: A Survey [6.899761345257773]
過去10年間で、ディープ・ニューラル・ラーニングの顕著な精度のおかげで、ディープは予測モデリングの一般的な方法論となった。
一方、ニューラルネットワークの構造はより単純で線形な関数に収束した。
論文 参考訳(メタデータ) (2023-04-29T11:46:53Z) - Formalizing Piecewise Affine Activation Functions of Neural Networks in
Coq [0.0]
本稿では,Coq内のニューラルネットワークの検証に適した対話型定理証明器として,pwaアクティベーション関数の最初の形式化を提案する。
概念実証として、一般的なpwaアクティベーション関数ReLUを構築する。
私たちのフォーマル化は、自動証明が失敗する際のフォールバック証明として、ニューラルネットワーク検証のフレームワークにCoqを統合するための道を開くものです。
論文 参考訳(メタデータ) (2023-01-30T13:53:52Z) - A Sparse Coding Interpretation of Neural Networks and Theoretical
Implications [0.0]
深層畳み込みニューラルネットワークは、様々なコンピュータビジョンタスクにおいて前例のない性能を達成した。
本稿では、ReLUアクティベーションを持つニューラルネットワークのスパース符号化解釈を提案する。
正規化やプーリングなしに完全な畳み込みニューラルネットワークを導出する。
論文 参考訳(メタデータ) (2021-08-14T21:54:47Z) - Optimal Approximation with Sparse Neural Networks and Applications [0.0]
深い疎結合ニューラルネットワークを用いて、関数クラスの複雑性を$L(mathbb Rd)$で測定する。
また、ニューラルネットワークを誘導する関数の可算コレクションである表現システムについても紹介する。
次に、レート歪曲理論とウェッジレット構成を用いて、$beta$マンガ的関数と呼ばれるクラスの複雑性を分析する。
論文 参考訳(メタデータ) (2021-08-14T05:14:13Z) - Adaptive Rational Activations to Boost Deep Reinforcement Learning [68.10769262901003]
我々は、合理的が適応可能なアクティベーション機能に適合する理由と、ニューラルネットワークへの含意が重要である理由を動機付けている。
人気アルゴリズムに(繰り返しの)アクティベーションを組み込むことで,アタリゲームにおいて一貫した改善がもたらされることを実証する。
論文 参考訳(メタデータ) (2021-02-18T14:53:12Z) - Stability of Algebraic Neural Networks to Small Perturbations [179.55535781816343]
Algebraic Neural Network (AlgNN) は、代数的信号モデルと関連する各層のカスケードで構成されている。
畳み込みという形式的な概念を用いるアーキテクチャは、シフト演算子の特定の選択を超えて、いかに安定であるかを示す。
論文 参考訳(メタデータ) (2020-10-22T09:10:16Z) - Connecting Weighted Automata, Tensor Networks and Recurrent Neural
Networks through Spectral Learning [58.14930566993063]
我々は、形式言語と言語学からの重み付き有限オートマトン(WFA)、機械学習で使用されるリカレントニューラルネットワーク、テンソルネットワークの3つのモデル間の接続を提示する。
本稿では,連続ベクトル入力の列上に定義された線形2-RNNに対する最初の証明可能な学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-10-19T15:28:00Z) - A biologically plausible neural network for multi-channel Canonical
Correlation Analysis [12.940770779756482]
皮質錐体ニューロンは、複数の神経集団から入力を受け取り、これらの入力を別々の樹状体区画に統合する。
我々は,生物学的に妥当なニューラルネットワークで実装可能なマルチチャネルCAAアルゴリズムを提案する。
生物学的信頼性のためには、ネットワークはオンライン環境で動作し、シナプス更新ルールはローカルである必要がある。
論文 参考訳(メタデータ) (2020-10-01T16:17:53Z) - Training End-to-End Analog Neural Networks with Equilibrium Propagation [64.0476282000118]
本稿では,勾配降下による終端から終端までのアナログニューラルネットワークの学習法を提案する。
数学的には、アナログニューラルネットワークのクラス(非線形抵抗性ネットワークと呼ばれる)がエネルギーベースモデルであることが示される。
我々の研究は、オンチップ学習をサポートする、超高速でコンパクトで低消費電力のニューラルネットワークの新世代の開発を導くことができる。
論文 参考訳(メタデータ) (2020-06-02T23:38:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。