論文の概要: An Analytical Approach to Compute the Exact Preimage of Feed-Forward
Neural Networks
- arxiv url: http://arxiv.org/abs/2203.00438v1
- Date: Mon, 28 Feb 2022 18:12:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-03 05:53:51.588963
- Title: An Analytical Approach to Compute the Exact Preimage of Feed-Forward
Neural Networks
- Title(参考訳): フィードフォワードニューラルネットワークの正確な前画像計算のための解析的手法
- Authors: Th\'eo Nancy, Vassili Maillet, Johann Barbier
- Abstract要約: 本研究では,任意のフィードフォワードニューラルネットワークにおいて,隠蔽層に対して線形あるいは一方向に線形に活性化する関数を正確に計算する手法を提案する。
他のメソッドとは対照的に、このメソッドはユニークな出力に対してユニークなソリューションを返すのではなく、解析的に全体と正確な事前イメージを返す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural networks are a convenient way to automatically fit functions that are
too complex to be described by hand. The downside of this approach is that it
leads to build a black-box without understanding what happened inside. Finding
the preimage would help to better understand how and why such neural networks
had given such outputs. Because most of the neural networks are noninjective
function, it is often impossible to compute it entirely only by a numerical
way. The point of this study is to give a method to compute the exact preimage
of any Feed-Forward Neural Network with linear or piecewise linear activation
functions for hidden layers. In contrast to other methods, this one is not
returning a unique solution for a unique output but returns analytically the
entire and exact preimage.
- Abstract(参考訳): ニューラルネットワークは、手動で記述するには複雑すぎる関数を自動的に適合させる便利な方法である。
このアプローチの欠点は、内部で何が起きたのか理解せずにブラックボックスを構築することにある。
プレイメージを見つけることは、なぜニューラルネットワークがそのような出力を与えたのかをよりよく理解するのに役立ちます。
ほとんどのニューラルネットワークは非インジェクティブ関数であるため、数値的な方法だけで計算することは不可能であることが多い。
本研究の目的は,隠蔽層に対する線形あるいは断片的な線形活性化関数を持つフィードフォワードニューラルネットワークの正確な事前画像を計算する方法を提供することである。
他のメソッドとは対照的に、これはユニークな出力に対してユニークなソリューションを返すのではなく、解析的に全体と正確な事前イメージを返す。
関連論文リスト
- Residual Random Neural Networks [0.0]
ランダムな重みを持つ単層フィードフォワードニューラルネットワークは、ニューラルネットワークの文献の中で繰り返されるモチーフである。
隠れたニューロンの数がデータサンプルの次元と等しくない場合でも,優れた分類結果が得られることを示す。
論文 参考訳(メタデータ) (2024-10-25T22:00:11Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Null Space Properties of Neural Networks with Applications to Image
Steganography [6.063583864878311]
与えられたニューラルネットワークのヌル空間は、最終的な予測に寄与しない入力データの一部を教えてくれます。
ここで説明する1つの応用は、画像ステガノグラフィーの方法につながる。
論文 参考訳(メタデータ) (2024-01-01T03:32:28Z) - Instance-wise Linearization of Neural Network for Model Interpretation [13.583425552511704]
この課題は、ニューラルネットワークの非線形動作に潜むことができる。
ニューラルネットワークモデルでは、非線形な振る舞いはモデルの非線形なアクティベーションユニットによって引き起こされることが多い。
本稿では,ニューラルネットワーク予測のフォワード計算過程を再構成するインスタンスワイズ線形化手法を提案する。
論文 参考訳(メタデータ) (2023-10-25T02:07:39Z) - A max-affine spline approximation of neural networks using the Legendre
transform of a convex-concave representation [0.3007949058551534]
本研究では,ニューラルネットワークをスプライン表現に変換する新しいアルゴリズムを提案する。
唯一の制約は、函数が有界で、よく定義された第二微分を持つことである。
また、各レイヤ上で独立してではなく、ネットワーク全体にわたって実行することもできる。
論文 参考訳(メタデータ) (2023-07-16T17:01:20Z) - Why do CNNs excel at feature extraction? A mathematical explanation [53.807657273043446]
実世界のデータセットに似た画像を生成するのに使用できる特徴抽出に基づく画像分類の新しいモデルを提案する。
本研究では,特徴の存在を検知する一方向線形関数を構築し,畳み込みネットワークで実現可能であることを示す。
論文 参考訳(メタデータ) (2023-07-03T10:41:34Z) - Provable Data Subset Selection For Efficient Neural Network Training [73.34254513162898]
本稿では,任意の放射基底関数ネットワーク上での入力データの損失を近似する,emphRBFNNのコアセットを構成するアルゴリズムについて紹介する。
次に、一般的なネットワークアーキテクチャやデータセット上で、関数近似とデータセットサブセットの選択に関する経験的評価を行う。
論文 参考訳(メタデータ) (2023-03-09T10:08:34Z) - Towards Understanding Hierarchical Learning: Benefits of Neural
Representations [160.33479656108926]
この研究で、中間的神経表現がニューラルネットワークにさらなる柔軟性をもたらすことを実証する。
提案手法は, 生の入力と比較して, サンプルの複雑度を向上できることを示す。
この結果から, 深度が深層学習においてなぜ重要かという新たな視点が得られた。
論文 参考訳(メタデータ) (2020-06-24T02:44:54Z) - Neural Sparse Representation for Image Restoration [116.72107034624344]
スパース符号化に基づく画像復元モデルの堅牢性と効率に触発され,深部ネットワークにおけるニューロンの空間性について検討した。
本手法は,隠れたニューロンに対する空間的制約を構造的に強制する。
実験により、複数の画像復元タスクのためのディープニューラルネットワークではスパース表現が不可欠であることが示されている。
論文 参考訳(メタデータ) (2020-06-08T05:15:17Z) - Compressive sensing with un-trained neural networks: Gradient descent
finds the smoothest approximation [60.80172153614544]
訓練されていない畳み込みニューラルネットワークは、画像の回復と復元に非常に成功したツールとして登場した。
トレーニングされていない畳み込みニューラルネットワークは、ほぼ最小限のランダムな測定値から、十分に構造化された信号や画像を概ね再構成可能であることを示す。
論文 参考訳(メタデータ) (2020-05-07T15:57:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。