論文の概要: A logical re-conception of neural networks: Hamiltonian bitwise part-whole architecture
- arxiv url: http://arxiv.org/abs/2602.04911v1
- Date: Wed, 04 Feb 2026 01:16:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-06 18:49:08.533809
- Title: A logical re-conception of neural networks: Hamiltonian bitwise part-whole architecture
- Title(参考訳): ニューラルネットワークの論理的再概念:ハミルトニアンビットワイド部分ホールアーキテクチャ
- Authors: E Bowen, R Granger, A Rodriguez,
- Abstract要約: 本稿では,操作ルールと学習ルールを併用したアーキテクチャを用いて,関係を直接表現するシンプルな初期動作システムを提案する。
グラフ-ハミルトン作用素は、すべての関係制約の同時満足度を示す基底状態を持つエンコーディング間のエネルギーを計算する。
結果として生じる非伝統的なアーキテクチャは、標準のANNの例を処理できるだけでなく、シンボリック計算の特徴を示す表現も生成できる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We introduce a simple initial working system in which relations (such as part-whole) are directly represented via an architecture with operating and learning rules fundamentally distinct from standard artificial neural network methods. Arbitrary data are straightforwardly encoded as graphs whose edges correspond to codes from a small fixed primitive set of elemental pairwise relations, such that simple relational encoding is not an add-on, but occurs intrinsically within the most basic components of the system. A novel graph-Hamiltonian operator calculates energies among these encodings, with ground states denoting simultaneous satisfaction of all relation constraints among graph vertices. The method solely uses radically low-precision arithmetic; computational cost is correspondingly low, and scales linearly with the number of edges in the data. The resulting unconventional architecture can process standard ANN examples, but also produces representations that exhibit characteristics of symbolic computation. Specifically, the method identifies simple logical relational structures in these data (part-of; next-to), building hierarchical representations that enable abductive inferential steps generating relational position-based encodings, rather than solely statistical representations. Notably, an equivalent set of ANN operations are derived, identifying a special case of embedded vector encodings that may constitute a useful approach to current work in higher-level semantic representation. The very simple current state of the implemented system invites additional tools and improvements.
- Abstract(参考訳): 本稿では,従来のニューラルネットワーク手法とは根本的に異なる操作ルールと学習ルールを備えたアーキテクチャを用いて,関係(部分全体など)を直接表現する単純な初期動作システムを提案する。
任意データは、単純なリレーショナルエンコーディングはアドオンではなく、本質的にシステムの最も基本的なコンポーネント内で発生するような、小さな固定された原始的元対関係の符号に対応するグラフとして、直接符号化される。
グラフ-ハミルトン作用素は、グラフ頂点間のすべての関係制約の同時満足度を示す基底状態を用いて、これらの符号化間のエネルギーを計算する。
計算コストはそれに応じて低く、データのエッジ数と線形にスケールする。
結果として生じる非伝統的なアーキテクチャは、標準のANNの例を処理できるだけでなく、シンボリック計算の特徴を示す表現も生成できる。
具体的には、これらのデータ中の単純な論理的リレーショナル構造を識別し、単に統計的表現ではなく、帰納的推論ステップでリレーショナル位置ベースのエンコーディングを生成する階層的表現を構築する。
特に、ANN操作の等価なセットが導出され、より高レベルな意味表現における現在の作業に有用なアプローチとなる埋め込みベクトルエンコーディングの特殊なケースが特定される。
実装されたシステムの非常に単純な状態は、追加のツールと改善を招待する。
関連論文リスト
- Generalized Simplicial Attention Neural Networks [22.171364354867723]
我々はGSAN(Generalized Simplicial Attention Neural Networks)を紹介する。
GSANは、マスク付き自己意図層を用いて、単純な複合体に生きるデータを処理する。
これらのスキームは、タスク指向の方法で、連続した順序の隣り合う単純さに関連するデータを組み合わせる方法を学ぶ。
論文 参考訳(メタデータ) (2023-09-05T11:29:25Z) - Contextualizing MLP-Mixers Spatiotemporally for Urban Data Forecast at Scale [54.15522908057831]
本稿では,STTD予測を大規模に行うためのコンピュータ・ミクサーの適応版を提案する。
我々の結果は、この単純な効率の良いソリューションが、いくつかのトラフィックベンチマークでテストした場合、SOTAベースラインに匹敵する可能性があることを驚くほど示している。
本研究は, 実世界のSTTD予測において, 簡便な有効モデルの探索に寄与する。
論文 参考訳(メタデータ) (2023-07-04T05:19:19Z) - Symbolic Synthesis of Neural Networks [0.0]
グラフベース合成ニューラルネットワーク(GSSNN)について
GSSNNは、トポロジとパラメータがシンボルプログラムの出力によって通知されるニューラルネットワークの一種である。
人口レベルでシンボリック抽象化を開発することで、局所的特徴や離散的特徴を含む少数のデータを用いて、改良された一般化の信頼性の高いパターンを導出できることを実証する。
論文 参考訳(メタデータ) (2023-03-06T18:13:14Z) - A Recursively Recurrent Neural Network (R2N2) Architecture for Learning
Iterative Algorithms [64.3064050603721]
本研究では,リカレントニューラルネットワーク (R2N2) にランゲ・クッタニューラルネットワークを一般化し,リカレントニューラルネットワークを最適化した反復アルゴリズムの設計を行う。
本稿では, 線形方程式系に対するクリロフ解法, 非線形方程式系に対するニュートン・クリロフ解法, 常微分方程式に対するルンゲ・クッタ解法と類似の繰り返しを計算問題クラスの入力・出力データに対して提案した超構造内における重みパラメータの正規化について述べる。
論文 参考訳(メタデータ) (2022-11-22T16:30:33Z) - Simplicial Attention Networks [0.0]
異なるレイヤでデータコンポーネントを処理できる適切な自己アテンションメカニズムを導入します。
与えられた位相領域の上と下の両方の近傍を、完全にタスク指向の方法で重み付けする方法を学ぶ。
提案手法は,異なるタスク(帰納的タスク,帰納的タスク)に適用した場合,他の手法と良好に比較できる。
論文 参考訳(メタデータ) (2022-03-14T20:47:31Z) - Dist2Cycle: A Simplicial Neural Network for Homology Localization [66.15805004725809]
単純複体は多方向順序関係を明示的にエンコードするグラフの高次元一般化と見なすことができる。
単体錯体の$k$-homological特徴によってパラメータ化された関数のグラフ畳み込みモデルを提案する。
論文 参考訳(メタデータ) (2021-10-28T14:59:41Z) - Mitigating Performance Saturation in Neural Marked Point Processes:
Architectures and Loss Functions [50.674773358075015]
本稿では,グラフ畳み込み層のみを利用するGCHPという単純なグラフベースのネットワーク構造を提案する。
我々は,GCHPがトレーニング時間を大幅に短縮し,時間間確率仮定による確率比損失がモデル性能を大幅に改善できることを示した。
論文 参考訳(メタデータ) (2021-07-07T16:59:14Z) - Building powerful and equivariant graph neural networks with structural
message-passing [74.93169425144755]
本稿では,2つのアイデアに基づいた,強力かつ同変なメッセージパッシングフレームワークを提案する。
まず、各ノードの周囲の局所的コンテキスト行列を学習するために、特徴に加えてノードの1ホット符号化を伝搬する。
次に,メッセージのパラメトリゼーション手法を提案する。
論文 参考訳(メタデータ) (2020-06-26T17:15:16Z) - Predictive Coding Approximates Backprop along Arbitrary Computation
Graphs [68.8204255655161]
我々は、コア機械学習アーキテクチャを予測的符号化に翻訳する戦略を開発する。
私たちのモデルは、挑戦的な機械学習ベンチマークのバックプロップと同等に機能します。
本手法は,ニューラルネットワークに標準機械学習アルゴリズムを直接実装できる可能性を高める。
論文 参考訳(メタデータ) (2020-06-07T15:35:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。