論文の概要: Information Field Theory as Artificial Intelligence
- arxiv url: http://arxiv.org/abs/2112.10133v1
- Date: Sun, 19 Dec 2021 12:29:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-21 16:13:17.369162
- Title: Information Field Theory as Artificial Intelligence
- Title(参考訳): 人工知能としての情報フィールド理論
- Authors: Torsten En{\ss}lin
- Abstract要約: 情報場理論(IFT)は、信号再構成と非パラメトリック逆問題のための数学的枠組みである。
本稿では, IFT における推論を GNN トレーニングの観点から再構成し, IFT と機械学習における数値変分推論手法の交叉受精について論じる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Information field theory (IFT), the information theory for fields, is a
mathematical framework for signal reconstruction and non-parametric inverse
problems. Here, fields denote physical quantities that change continuously as a
function of space (and time) and information theory refers to Bayesian
probabilistic logic equipped with the associated entropic information measures.
Reconstructing a signal with IFT is a computational problem similar to training
a generative neural network (GNN). In this paper, the inference in IFT is
reformulated in terms of GNN training and the cross-fertilization of numerical
variational inference methods used in IFT and machine learning are discussed.
The discussion suggests that IFT inference can be regarded as a specific form
of artificial intelligence. In contrast to classical neural networks, IFT based
GNNs can operate without pre-training thanks to incorporating expert knowledge
into their architecture.
- Abstract(参考訳): 情報場理論(英: Information Field theory、IFT)は、信号再構成と非パラメトリック逆問題のための数学的枠組みである。
ここで、体は空間(および時間)の関数として連続的に変化する物理量を表し、情報理論は関連するエントロピー情報測度を備えたベイズ確率論理を指す。
IFTによる信号再構成は、生成ニューラルネットワーク(GNN)のトレーニングと同様の計算問題である。
本稿では, IFT における推論を GNN トレーニングの観点から再構成し, IFT と機械学習における数値変分推論手法の交叉受精について述べる。
この議論は、IFT推論が人工知能の特定の形態と見なせることを示唆している。
従来のニューラルネットワークとは対照的に、IFTベースのGNNは、アーキテクチャに専門家の知識を取り入れることで、事前トレーニングなしで運用することができる。
関連論文リスト
- Mechanistic Neural Networks for Scientific Machine Learning [58.99592521721158]
我々は、科学における機械学習応用のためのニューラルネットワーク設計であるメカニスティックニューラルネットワークを提案する。
新しいメカニスティックブロックを標準アーキテクチャに組み込んで、微分方程式を表現として明示的に学習する。
我々のアプローチの中心は、線形プログラムを解くために線形ODEを解く技術に着想を得た、新しい線形計画解法(NeuRLP)である。
論文 参考訳(メタデータ) (2024-02-20T15:23:24Z) - Correcting model misspecification in physics-informed neural networks
(PINNs) [2.07180164747172]
本稿では,制御方程式の発見のために,PINNにおいて不特定な物理モデルを修正するための一般的な手法を提案する。
我々は、不完全モデルと観測データとの差をモデル化するために、他のディープニューラルネットワーク(DNN)を使用します。
提案手法は, 物理化学的, 生物学的プロセスがよく理解されていない問題における支配方程式の発見に, PINNの応用を拡大すると考えられる。
論文 参考訳(メタデータ) (2023-10-16T19:25:52Z) - Unsupervised Learning of Invariance Transformations [105.54048699217668]
近似グラフ自己同型を見つけるためのアルゴリズムフレームワークを開発する。
重み付きグラフにおける近似自己同型を見つけるために、このフレームワークをどのように利用できるかについて議論する。
論文 参考訳(メタデータ) (2023-07-24T17:03:28Z) - Spectral-Bias and Kernel-Task Alignment in Physically Informed Neural
Networks [4.604003661048267]
物理情報ニューラルネットワーク(PINN)は微分方程式の解法として有望である。
この重要な問題に光を当てる包括的な理論的枠組みを提案する。
我々は、PINN予測を大容量データセット限界で支配する積分微分方程式を導出する。
論文 参考訳(メタデータ) (2023-07-12T18:00:02Z) - Structures of Neural Network Effective Theories [0.0]
我々は、ディープニューラルネットワークに対応する有効場理論に対する図式的アプローチを開発する。
EFT計算の構造は、単一条件がニューロン前活性化の全ての連結コレラレータの臨界性を支配することを透明にする。
論文 参考訳(メタデータ) (2023-05-03T18:00:00Z) - Domain Agnostic Fourier Neural Operators [15.29112632863168]
本研究では,不規則なジオメトリと進化するドメインを持つサロゲートを学習するために,ドメインに依存しないフーリエニューラル演算子(DAFNO)を導入する。
鍵となる考え方は、FNOの積分層アーキテクチャに滑らかな特性関数を組み込むことである。
DAFNOはベースラインニューラル演算子モデルと比較して最先端の精度を達成した。
論文 参考訳(メタデータ) (2023-04-30T13:29:06Z) - The Predictive Forward-Forward Algorithm [79.07468367923619]
本稿では,ニューラルネットワークにおける信頼割当を行うための予測フォワード(PFF)アルゴリズムを提案する。
我々は,有向生成回路と表現回路を同時に同時に学習する,新しい動的リカレントニューラルネットワークを設計する。
PFFは効率よく学習し、学習信号を伝達し、フォワードパスのみでシナプスを更新する。
論文 参考訳(メタデータ) (2023-01-04T05:34:48Z) - Universal approximation property of invertible neural networks [76.95927093274392]
Invertible Neural Network (INN) は、設計によって可逆性を持つニューラルネットワークアーキテクチャである。
その可逆性とヤコビアンのトラクタビリティのおかげで、IGNは確率的モデリング、生成的モデリング、表現的学習など、さまざまな機械学習応用がある。
論文 参考訳(メタデータ) (2022-04-15T10:45:26Z) - FF-NSL: Feed-Forward Neural-Symbolic Learner [70.978007919101]
本稿では,Feed-Forward Neural-Symbolic Learner (FF-NSL) と呼ばれるニューラルシンボリック学習フレームワークを紹介する。
FF-NSLは、ラベル付き非構造化データから解釈可能な仮説を学習するために、Answer Setセマンティクスに基づく最先端のICPシステムとニューラルネットワークを統合する。
論文 参考訳(メタデータ) (2021-06-24T15:38:34Z) - Partial Differential Equations is All You Need for Generating Neural
Architectures -- A Theory for Physical Artificial Intelligence Systems [29.667065357274385]
統計物理学では反応拡散方程式、量子力学ではschr"odinger方程式、同軸光学ではhelmholtz方程式を一般化する。
数値解を求めるために,有限差分法を用いてNPDEを判別する。
多層パーセプトロン、畳み込みニューラルネットワーク、繰り返しニューラルネットワークなど、ディープニューラルネットワークアーキテクチャの基本構成要素が生成されます。
論文 参考訳(メタデータ) (2021-03-10T00:05:46Z) - Reinforcement Learning with External Knowledge by using Logical Neural
Networks [67.46162586940905]
論理ニューラルネットワーク(LNN)と呼ばれる最近のニューラルシンボリックフレームワークは、ニューラルネットワークとシンボリックロジックの両方のキープロパティを同時に提供することができる。
外部知識ソースからのモデルフリー強化学習を可能にする統合手法を提案する。
論文 参考訳(メタデータ) (2021-03-03T12:34:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。