論文の概要: Neural Network Symmetrisation in Concrete Settings
- arxiv url: http://arxiv.org/abs/2412.09469v1
- Date: Thu, 12 Dec 2024 17:16:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-13 13:31:37.022764
- Title: Neural Network Symmetrisation in Concrete Settings
- Title(参考訳): コンクリート環境におけるニューラルネットワークの対称性
- Authors: Rob Cornish,
- Abstract要約: Cornish (2024) はマルコフ圏の抽象的文脈におけるニューラルネットワーク対称性の一般理論を最近発表した。
本稿では、これらの結果の高レベルな概要と、決定論的関数とマルコフカーネルの対称性に対する具体的な意味について述べる。
- 参考スコア(独自算出の注目度): 2.0668277618112203
- License:
- Abstract: Cornish (2024) recently gave a general theory of neural network symmetrisation in the abstract context of Markov categories. We give a high-level overview of these results, and their concrete implications for the symmetrisation of deterministic functions and of Markov kernels.
- Abstract(参考訳): Cornish (2024) はマルコフ圏の抽象的文脈におけるニューラルネットワーク対称性の一般理論を最近発表した。
本稿では、これらの結果の高レベルな概要と、決定論的関数とマルコフカーネルの対称性に対する具体的な意味について述べる。
関連論文リスト
- Compositional Generalization Across Distributional Shifts with Sparse Tree Operations [77.5742801509364]
我々は、微分可能木機械と呼ばれる統合されたニューロシンボリックアーキテクチャを導入する。
シンボル構造の疎ベクトル表現を用いることで,モデルの効率を大幅に向上する。
より一般的なseq2seq問題に制限されたtree2tree問題以外の適用を可能にする。
論文 参考訳(メタデータ) (2024-12-18T17:20:19Z) - Fermionic Neural Networks through the lens of Group Theory [2.038915907035661]
反対称ニューラルネットワーク波動関数を構成する最も一般的な方法の1つである行列式が群畳み込みの結果として理解可能であることを示す。
我々は、群表現論は、ニューラル量子状態に明示的に対称性を組み込むための有望な道であると結論付けている。
論文 参考訳(メタデータ) (2024-11-18T14:27:55Z) - Stochastic Neural Network Symmetrisation in Markov Categories [2.0668277618112203]
我々は、群準同型に沿ってニューラルネットワークをシンメトリする問題を考察する。
これをマルコフ圏の項で定式化する。
シンメトリションのためのフレキシブルで構成的な枠組みを得る。
論文 参考訳(メタデータ) (2024-06-17T17:54:42Z) - The Empirical Impact of Neural Parameter Symmetries, or Lack Thereof [50.49582712378289]
ニューラル・ネットワーク・アーキテクチャの導入により,ニューラル・パラメータ・対称性の影響について検討する。
我々は,パラメータ空間対称性を低減するために,標準的なニューラルネットワークを改良する2つの手法を開発した。
実験により,パラメータ対称性の経験的影響に関する興味深い観察がいくつか示された。
論文 参考訳(メタデータ) (2024-05-30T16:32:31Z) - GNN-LoFI: a Novel Graph Neural Network through Localized Feature-based
Histogram Intersection [51.608147732998994]
グラフニューラルネットワークは、グラフベースの機械学習の選択フレームワークになりつつある。
本稿では,古典的メッセージパッシングに代えて,ノード特徴の局所分布を解析するグラフニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-01-17T13:04:23Z) - Generalizable Neuro-symbolic Systems for Commonsense Question Answering [67.72218865519493]
この章では、言語理解に適したニューロシンボリックモデルが、下流タスクにおけるドメインの一般化性と堅牢性を実現する方法について説明する。
ニューラルネットワークモデルと知識グラフを統合するための様々な方法について議論する。
論文 参考訳(メタデータ) (2022-01-17T06:13:37Z) - The QR decomposition for radial neural networks [0.0]
我々は、クイバーの表現論の観点から、ニューラルネットワークの理論的枠組みを提供する。
これらの対称性の活用により、ラジアルニューラルネットワークのモデル圧縮アルゴリズムが実現される。
論文 参考訳(メタデータ) (2021-07-06T11:41:02Z) - Formalizing Generalization and Robustness of Neural Networks to Weight
Perturbations [58.731070632586594]
非負のモノトーンアクティベーション機能を備えたフィードフォワードニューラルネットワークの重量変動に対する最初の形式解析を提供します。
また,重みの摂動に対して一般化し頑健なニューラルネットワークを訓練するための新しい理論駆動損失関数を設計した。
論文 参考訳(メタデータ) (2021-03-03T06:17:03Z) - Topologically Densified Distributions [25.140319008330167]
オーバーパラメータ化ニューラルネットワークを用いた小さなサンプルサイズ学習の文脈における正規化について検討する。
我々は、その空間で誘導される確率測度から引き出されたサンプルに位相的制約を課す。
このことは、トレーニングインスタンスの表現に関する質量濃度の影響を確実に引き起こす。
論文 参考訳(メタデータ) (2020-02-12T05:25:15Z) - Understanding Generalization in Deep Learning via Tensor Methods [53.808840694241]
圧縮の観点から,ネットワークアーキテクチャと一般化可能性の関係について理解を深める。
本稿では、ニューラルネットワークの圧縮性と一般化性を強く特徴付ける、直感的で、データ依存的で、測定が容易な一連の特性を提案する。
論文 参考訳(メタデータ) (2020-01-14T22:26:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。