論文の概要: nn2poly: An R Package for Converting Neural Networks into Interpretable Polynomials
- arxiv url: http://arxiv.org/abs/2406.01588v1
- Date: Mon, 3 Jun 2024 17:59:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-05 21:41:25.372603
- Title: nn2poly: An R Package for Converting Neural Networks into Interpretable Polynomials
- Title(参考訳): nn2poly:ニューラルネットワークを解釈可能な多項式に変換するためのRパッケージ
- Authors: Pablo Morala, Jenny Alexandra Cifuentes, Rosa E. Lillo, Iñaki Ucar,
- Abstract要約: nn2polyパッケージは、ニューラルネットワークの説明と解釈を行うNN2メソッドのRの実装を提供する。
このパッケージは、Rの主要なディープラーニングフレームワークパッケージとの統合を提供する。
他のニューラルネットワークパッケージも、その重みをリスト形式に含めることで使用できる。
- 参考スコア(独自算出の注目度): 1.86413150130483
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The nn2poly package provides the implementation in R of the NN2Poly method to explain and interpret feed-forward neural networks by means of polynomial representations that predict in an equivalent manner as the original network.Through the obtained polynomial coefficients, the effect and importance of each variable and their interactions on the output can be represented. This capabiltiy of capturing interactions is a key aspect usually missing from most Explainable Artificial Intelligence (XAI) methods, specially if they rely on expensive computations that can be amplified when used on large neural networks. The package provides integration with the main deep learning framework packages in R (tensorflow and torch), allowing an user-friendly application of the NN2Poly algorithm. Furthermore, nn2poly provides implementation of the required weight constraints to be used during the network training in those same frameworks. Other neural networks packages can also be used by including their weights in list format. Polynomials obtained with nn2poly can also be used to predict with new data or be visualized through its own plot method. Simulations are provided exemplifying the usage of the package alongside with a comparison with other approaches available in R to interpret neural networks.
- Abstract(参考訳): NN2Poly法は、元のネットワークと同じ方法で予測される多項式表現を用いて、フィードフォワードニューラルネットワークを説明・解釈するためのRの実装を提供する。
この相互作用をキャプチャする能力は、たいていの説明可能な人工知能(XAI)メソッドに欠けている重要な側面である。
このパッケージはRの主要なディープラーニングフレームワークパッケージ(テンソルフローとトーチ)との統合を提供し、NN2Polyアルゴリズムのユーザフレンドリーなアプリケーションを可能にする。
さらに、nn2polyは、同じフレームワークでネットワークトレーニングで使用されるために必要なウェイト制約の実装を提供する。
他のニューラルネットワークパッケージも、その重みをリスト形式に含めることで使用できる。
nn2polyで得られたポリノミアルは、新しいデータで予測したり、独自のプロット法で視覚化することができる。
シミュレーションは、ニューラルネットワークを解釈するためにRで利用可能な他のアプローチとの比較とともに、パッケージの使用を例示する。
関連論文リスト
- Defining Neural Network Architecture through Polytope Structures of Dataset [53.512432492636236]
本稿では, ニューラルネットワーク幅の上下境界を定義し, 問題となるデータセットのポリトープ構造から情報を得る。
本研究では,データセットのポリトープ構造を学習したニューラルネットワークから推定できる逆条件を探索するアルゴリズムを開発した。
MNIST、Fashion-MNIST、CIFAR10といった一般的なデータセットは、顔の少ない2つ以上のポリトップを用いて効率的にカプセル化できることが確立されている。
論文 参考訳(メタデータ) (2024-02-04T08:57:42Z) - Set-based Neural Network Encoding Without Weight Tying [91.37161634310819]
本稿では,ネットワーク特性予測のためのニューラルネットワーク重み符号化手法を提案する。
我々のアプローチは、混合アーキテクチャのモデル動物園でニューラルネットワークを符号化することができる。
ニューラルネットワークのプロパティ予測には,クロスデータセットとクロスアーキテクチャという,2つの新しいタスクを導入する。
論文 参考訳(メタデータ) (2023-05-26T04:34:28Z) - cito: An R package for training neural networks using torch [0.0]
citoは、ディープラーニング(DL)アプリケーションのためのユーザフレンドリーなRパッケージである。
多くのRパッケージで使われている慣れ親しんだ式構文でDNNを指定することができる。
「シトー」には、モデルプロットと分析のための多くのユーザフレンドリーな機能が含まれている。
論文 参考訳(メタデータ) (2023-03-16T18:54:20Z) - Polynomial Neural Fields for Subband Decomposition and Manipulation [78.2401411189246]
我々はニューラルフィールド(PNF)と呼ばれる新しい種類のニューラルフィールドを提案する。
PNFの鍵となる利点は、信号がニューラルネットワークの利点を失うことなく、操作可能なコンポーネントと解釈可能なコンポーネントの合成として表現できることである。
本研究では,Fourier PNFがテクスチャ転送やスケール空間といった信号操作の応用を可能にすることを実証的に示す。
論文 参考訳(メタデータ) (2023-02-09T18:59:04Z) - Robust Training and Verification of Implicit Neural Networks: A
Non-Euclidean Contractive Approach [64.23331120621118]
本稿では,暗黙的ニューラルネットワークのトレーニングとロバスト性検証のための理論的および計算的枠組みを提案する。
組込みネットワークを導入し、組込みネットワークを用いて、元のネットワークの到達可能な集合の超近似として$ell_infty$-normボックスを提供することを示す。
MNISTデータセット上で暗黙的なニューラルネットワークをトレーニングするためにアルゴリズムを適用し、我々のモデルの堅牢性と、文献における既存のアプローチを通じてトレーニングされたモデルを比較する。
論文 参考訳(メタデータ) (2022-08-08T03:13:24Z) - Bagged Polynomial Regression and Neural Networks [0.0]
時系列とデータセットの回帰は、ニューラルネットワークと同じ関数クラスを近似することができる。
textitbagged regression (BPR)は、ニューラルネットワークの魅力的な代替品である。
BPRは、衛星データを用いた作物分類において、ニューラルネットワークと同様に機能する。
論文 参考訳(メタデータ) (2022-05-17T19:55:56Z) - NN2Poly: A polynomial representation for deep feed-forward artificial
neural networks [0.6502001911298337]
NN2Polyは、すでに訓練済みの完全接続フィードフォワード人工ニューラルネットワークの明示的なモデルを得るための理論的アプローチである。
このアプローチは、単一の隠蔽層ネットワークに限定された文献で提案された以前の考え方を拡張している。
論文 参考訳(メタデータ) (2021-12-21T17:55:22Z) - The Separation Capacity of Random Neural Networks [78.25060223808936]
標準ガウス重みと一様分布バイアスを持つ十分に大きな2層ReLUネットワークは、この問題を高い確率で解くことができることを示す。
我々は、相互複雑性という新しい概念の観点から、データの関連構造を定量化する。
論文 参考訳(メタデータ) (2021-07-31T10:25:26Z) - PolyDNN: Polynomial Representation of NN for Communication-less SMPC
Inference [5.1779474453796865]
ネットワークを1つにまとめる手法と,効率的な情報セキュアなmpcアルゴリズムによる計算方法を提案する。
計算は、いくつかのケースで有益である参加当事者間の中間通信なしで行われます。
論文 参考訳(メタデータ) (2021-04-02T02:59:37Z) - Towards a mathematical framework to inform Neural Network modelling via
Polynomial Regression [0.0]
特定の条件が局所的に満たされた場合、ほぼ同一の予測が可能であることが示されている。
生成したデータから学習すると,そのデータを局所的に近似的に生成する。
論文 参考訳(メタデータ) (2021-02-07T17:56:16Z) - Neural Networks are Convex Regularizers: Exact Polynomial-time Convex
Optimization Formulations for Two-layer Networks [70.15611146583068]
我々は、線形整列ユニット(ReLU)を用いた2層ニューラルネットワークのトレーニングの正確な表現を開発する。
我々の理論は半無限双対性と最小ノルム正規化を利用する。
論文 参考訳(メタデータ) (2020-02-24T21:32:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。