論文の概要: OGGN: A Novel Generalized Oracle Guided Generative Architecture for
Modelling Inverse Function of Artificial Neural Networks
- arxiv url: http://arxiv.org/abs/2104.03935v1
- Date: Thu, 8 Apr 2021 17:28:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-09 12:58:05.842502
- Title: OGGN: A Novel Generalized Oracle Guided Generative Architecture for
Modelling Inverse Function of Artificial Neural Networks
- Title(参考訳): OGGN: ニューラルネットワークの逆関数モデリングのための新しい一般化されたOracleガイド生成アーキテクチャ
- Authors: Mohammad Aaftab V, Mansi Sharma
- Abstract要約: 本稿では,ANN(Artificial Neural Network)の逆関数を,完全にあるいは部分的にモデル化するための新しい生成ニューラルネットワークアーキテクチャを提案する。
OGGNと呼ばれる提案されたOracle Guided Generative Neural Networkは、さまざまな機能生成問題に柔軟に対応します。
この制約関数により、ニューラルネットワークは与えられた局所空間を長時間調査することができる。
- 参考スコア(独自算出の注目度): 0.6091702876917279
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a novel Generative Neural Network Architecture for
modelling the inverse function of an Artificial Neural Network (ANN) either
completely or partially. Modelling the complete inverse function of an ANN
involves generating the values of all features that corresponds to a desired
output. On the other hand, partially modelling the inverse function means
generating the values of a subset of features and fixing the remaining feature
values. The feature set generation is a critical step for artificial neural
networks, useful in several practical applications in engineering and science.
The proposed Oracle Guided Generative Neural Network, dubbed as OGGN, is
flexible to handle a variety of feature generation problems. In general, an ANN
is able to predict the target values based on given feature vectors. The OGGN
architecture enables to generate feature vectors given the predetermined target
values of an ANN. When generated feature vectors are fed to the forward ANN,
the target value predicted by ANN will be close to the predetermined target
values. Therefore, the OGGN architecture is able to map, inverse function of
the function represented by forward ANN. Besides, there is another important
contribution of this work. This paper also introduces a new class of functions,
defined as constraint functions. The constraint functions enable a neural
network to investigate a given local space for a longer period of time. Thus,
enabling to find a local optimum of the loss function apart from just being
able to find the global optimum. OGGN can also be adapted to solve a system of
polynomial equations in many variables. The experiments on synthetic datasets
validate the effectiveness of OGGN on various use cases.
- Abstract(参考訳): 本稿では,ANN(Artificial Neural Network)の逆関数を,完全にあるいは部分的にモデル化するための新しい生成ニューラルネットワークアーキテクチャを提案する。
ann の完全な逆関数のモデル化は、所望の出力に対応するすべての特徴の値を生成することを伴う。
一方、逆関数を部分的にモデル化することは、特徴のサブセットの値を生成し、残りの特徴値を修正することを意味する。
特徴セット生成は、人工知能ニューラルネットワークにとって重要なステップであり、工学と科学のいくつかの実践的な応用に有用である。
提案されているOracle Guided Generative Neural Networkは、OGGNと呼ばれ、さまざまな機能生成問題に対処する柔軟性がある。
一般に、ANNは与えられた特徴ベクトルに基づいてターゲット値を予測することができる。
OGGNアーキテクチャは、ANNの所定の目標値が与えられた特徴ベクトルを生成することができる。
生成された特徴ベクトルが前方ANNに供給されると、ANNが予測した目標値は所定の目標値に近接する。
したがって、OGGNアーキテクチャは、前方ANNで表される関数の逆関数をマッピングすることができる。
また、この作品にも重要な貢献がある。
本稿では,制約関数として定義された関数の新しいクラスについても紹介する。
この制約関数により、ニューラルネットワークは与えられた局所空間を長時間調査することができる。
したがって、損失関数の局所的な最適点を見つけることは、グローバルな最適点を見つけることとは別に可能である。
OGGNは、多くの変数の多項式方程式系の解法にも適用できる。
合成データセットの実験は、様々なユースケースにおけるOGGNの有効性を検証する。
関連論文リスト
- How (Implicit) Regularization of ReLU Neural Networks Characterizes the
Learned Function -- Part II: the Multi-D Case of Two Layers with Random First
Layer [2.1485350418225244]
本稿では,ReLUアクティベーションを伴うランダム化した浅層NNの一般化挙動を,正確なマクロ解析により解析する。
RSNは、無限に多くの方向が考慮される一般化加法モデル(GAM)型回帰に対応することを示す。
論文 参考訳(メタデータ) (2023-03-20T21:05:47Z) - Versatile Neural Processes for Learning Implicit Neural Representations [57.090658265140384]
本稿では,近似関数の能力を大幅に向上させるVersatile Neural Processs (VNP)を提案する。
具体的には、より少ない情報的コンテキストトークンを生成するボトルネックエンコーダを導入し、高い計算コストを軽減した。
提案したVNPが1D, 2D, 3D信号を含む様々なタスクに対して有効であることを示す。
論文 参考訳(メタデータ) (2023-01-21T04:08:46Z) - EIGNN: Efficient Infinite-Depth Graph Neural Networks [51.97361378423152]
グラフニューラルネットワーク(GNN)は多くのアプリケーションでグラフ構造化データのモデリングに広く利用されている。
この制限により、無限深度GNNモデルを提案し、これをEIGNN(Efficient Infinite-Depth Graph Neural Networks)と呼ぶ。
EIGNNは、最近のベースラインよりも長距離依存関係をキャプチャする能力が優れており、常に最先端のパフォーマンスを実現していることを示す。
論文 参考訳(メタデータ) (2022-02-22T08:16:58Z) - Graph-adaptive Rectified Linear Unit for Graph Neural Networks [64.92221119723048]
グラフニューラルネットワーク(GNN)は、従来の畳み込みを非ユークリッドデータでの学習に拡張することで、目覚ましい成功を収めた。
本稿では,周辺情報を利用した新しいパラメトリックアクティベーション機能であるグラフ適応整流線形ユニット(GRELU)を提案する。
我々は,GNNのバックボーンと様々な下流タスクによって,プラグアンドプレイGRELU法が効率的かつ効果的であることを示す包括的実験を行った。
論文 参考訳(メタデータ) (2022-02-13T10:54:59Z) - CDiNN -Convex Difference Neural Networks [0.8122270502556374]
reluアクティベーション関数を持つニューラルネットワークは、普遍関数近似が非スムース関数として関数マッピングを学ぶことが示されている。
ICNNと呼ばれる新しいニューラルネットワークアーキテクチャは、凸入力として出力を学習する。
論文 参考訳(メタデータ) (2021-03-31T17:31:16Z) - Delay Differential Neural Networks [0.2538209532048866]
遅延微分方程式 (DDE) に触発された新しいモデル, 遅延微分ニューラルネットワーク (DDNN) を提案する。
ddnnのトレーニングには,ネットワーク上での勾配計算とバックプロパゲーションを行うためのメモリ効率の良い随伴法を提案する。
Cifar10やCifar100のような合成および実世界の画像分類データセットで行った実験は、提案モデルの有効性を示した。
論文 参考訳(メタデータ) (2020-12-12T12:20:54Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - Alpha Discovery Neural Network based on Prior Knowledge [55.65102700986668]
遺伝的プログラミング(GP)は、金融自動化機能構築タスクにおける最先端技術である。
本稿では,分散金融技術指標の自動構築が可能なニューラルネットワーク構造であるAlpha Discovery Neural Network (ADNN)を提案する。
論文 参考訳(メタデータ) (2019-12-26T03:10:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。