論文の概要: Folding over Neural Networks
- arxiv url: http://arxiv.org/abs/2207.01090v1
- Date: Sun, 3 Jul 2022 18:20:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-06 07:50:54.252046
- Title: Folding over Neural Networks
- Title(参考訳): ニューラルネットワーク上の折りたたみ
- Authors: Minh Nguyen and Nicolas Wu
- Abstract要約: 本稿では、構造的再帰がHaskellにおけるニューラルネットワークの表現にどのように役立つかを示す。
そこで我々は,ニューラルネットワークのコヒーレントな実装を推進し,その構造とセマンティクスを規定する。
- 参考スコア(独自算出の注目度): 1.7818230914983044
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural networks are typically represented as data structures that are
traversed either through iteration or by manual chaining of method calls.
However, a deeper analysis reveals that structured recursion can be used
instead, so that traversal is directed by the structure of the network itself.
This paper shows how such an approach can be realised in Haskell, by encoding
neural networks as recursive data types, and then their training as recursion
scheme patterns. In turn, we promote a coherent implementation of neural
networks that delineates between their structure and semantics, allowing for
compositionality in both how they are built and how they are trained.
- Abstract(参考訳): ニューラルネットワークは通常、反復または手動によるメソッド呼び出しの連鎖によってトラバースされるデータ構造として表現される。
しかし、より深い分析により、構造的な再帰は代わりに使用できるため、トラバーサルはネットワーク自体の構造によって指示される。
本稿では,再帰的データ型としてニューラルネットワークを符号化し,再帰スキームパターンとしてトレーニングすることで,Haskellでそのようなアプローチを実現する方法を示す。
次に,その構造と意味論を区別するニューラルネットワークのコヒーレントな実装を促進し,構築方法とトレーニング方法の両方において構成性を実現する。
関連論文リスト
- Coding schemes in neural networks learning classification tasks [52.22978725954347]
完全接続型広義ニューラルネットワーク学習タスクについて検討する。
ネットワークが強力なデータ依存機能を取得することを示す。
驚くべきことに、内部表現の性質は神経の非線形性に大きく依存する。
論文 参考訳(メタデータ) (2024-06-24T14:50:05Z) - Can Transformers Learn to Solve Problems Recursively? [9.5623664764386]
本稿では,プログラムと形式検証に関連するニューラルネットワーク学習アルゴリズムの挙動について検討する。
これらのアルゴリズムを再構築することにより、近似関数の1つに対して、障害ケースの91%を正確に予測することができる。
論文 参考訳(メタデータ) (2023-05-24T04:08:37Z) - Bayesian Detection of Mesoscale Structures in Pathway Data on Graphs [0.0]
メソスケール構造は 複雑なシステムの抽象化と解析の 不可欠な部分です
それらは、社会的または引用ネットワークにおけるコミュニティ、企業間相互作用における役割、または輸送ネットワークにおける中核周辺構造におけるコミュニティを表現することができる。
我々は,グループ内のノードの最適分割と高次ネットワークの最適ダイナミクスを同時にモデル化するベイズ的アプローチを導出する。
論文 参考訳(メタデータ) (2023-01-16T12:45:33Z) - Credit Assignment for Trained Neural Networks Based on Koopman Operator
Theory [3.130109807128472]
ニューラルネットワークのクレジット割り当て問題は、最終的な出力に対する各ネットワークコンポーネントのクレジットを評価することを指す。
本稿では,ニューラルネットワークの信頼割当問題に対する線形力学の代替的視点について述べる。
典型的なニューラルネットワークを用いた実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2022-12-02T06:34:27Z) - A Recursively Recurrent Neural Network (R2N2) Architecture for Learning
Iterative Algorithms [64.3064050603721]
本研究では,リカレントニューラルネットワーク (R2N2) にランゲ・クッタニューラルネットワークを一般化し,リカレントニューラルネットワークを最適化した反復アルゴリズムの設計を行う。
本稿では, 線形方程式系に対するクリロフ解法, 非線形方程式系に対するニュートン・クリロフ解法, 常微分方程式に対するルンゲ・クッタ解法と類似の繰り返しを計算問題クラスの入力・出力データに対して提案した超構造内における重みパラメータの正規化について述べる。
論文 参考訳(メタデータ) (2022-11-22T16:30:33Z) - Modeling Structure with Undirected Neural Networks [20.506232306308977]
任意の順序で実行できる計算を指定するためのフレキシブルなフレームワークである、非指向型ニューラルネットワークを提案する。
さまざまなタスクにおいて、非構造的かつ構造化された非指向型ニューラルアーキテクチャの有効性を実証する。
論文 参考訳(メタデータ) (2022-02-08T10:06:51Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - Artificial Neural Networks generated by Low Discrepancy Sequences [59.51653996175648]
我々は、高密度ネットワークグラフ上のランダムウォーキングとして、人工ニューラルネットワークを生成する。
このようなネットワークはスクラッチからスパースを訓練することができ、高密度ネットワークをトレーニングし、その後圧縮する高価な手順を避けることができる。
我々は,低差分シーケンスで生成された人工ニューラルネットワークが,より低い計算複雑性で,密度の高いニューラルネットワークの到達範囲内で精度を達成できることを実証した。
論文 参考訳(メタデータ) (2021-03-05T08:45:43Z) - Neural networks adapting to datasets: learning network size and topology [77.34726150561087]
ニューラルネットワークは、勾配に基づくトレーニングの過程で、そのサイズとトポロジの両方を学習できるフレキシブルなセットアップを導入します。
結果として得られるネットワークは、特定の学習タスクとデータセットに合わせたグラフの構造を持つ。
論文 参考訳(メタデータ) (2020-06-22T12:46:44Z) - Progressive Graph Convolutional Networks for Semi-Supervised Node
Classification [97.14064057840089]
グラフ畳み込みネットワークは、半教師付きノード分類のようなグラフベースのタスクに対処することに成功した。
本稿では,コンパクトかつタスク固有のグラフ畳み込みネットワークを自動構築する手法を提案する。
論文 参考訳(メタデータ) (2020-03-27T08:32:16Z) - Investigating the Compositional Structure Of Deep Neural Networks [1.8899300124593645]
本稿では,一方向線形活性化関数の構成構造に基づく新しい理論的枠組みを提案する。
予測ラベルと予測に使用する特定の(線形)変換の両方に関して、入力データのインスタンスを特徴付けることができる。
MNISTデータセットの予備テストでは、ニューラルネットワークの内部表現における類似性に関して、入力インスタンスをグループ化することが可能である。
論文 参考訳(メタデータ) (2020-02-17T14:16:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。