論文の概要: How to Explain Neural Networks: A perspective of data space division
- arxiv url: http://arxiv.org/abs/2105.07831v1
- Date: Mon, 17 May 2021 13:43:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-18 21:26:23.274866
- Title: How to Explain Neural Networks: A perspective of data space division
- Title(参考訳): ニューラルネットワークの解説方法:データ空間分割の観点から
- Authors: Hangcheng Dong, Bingguo Liu, Fengdong Chen, Dong Ye and Guodong Liu
- Abstract要約: ディープラーニングで表されるアルゴリズムの解釈可能性はまだオープンな問題です。
本稿では,説明の2つの属性に基づく既存の説明可能な手法の欠点について論じる。
本稿では,データ空間分割の観点から,完全局所解釈可能なモデル非依存説明法(CLIMEP)の原理を提案する。
- 参考スコア(独自算出の注目度): 2.4499092754102874
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Interpretability of intelligent algorithms represented by deep learning has
been yet an open problem. We discuss the shortcomings of the existing
explainable method based on the two attributes of explanation, which are called
completeness and explicitness. Furthermore, we point out that a model that
completely relies on feed-forward mapping is extremely easy to cause
inexplicability because it is hard to quantify the relationship between this
mapping and the final model. Based on the perspective of the data space
division, the principle of complete local interpretable model-agnostic
explanations (CLIMEP) is proposed in this paper. To study the classification
problems, we further discussed the equivalence of the CLIMEP and the decision
boundary. As a matter of fact, it is also difficult to implementation of
CLIMEP. To tackle the challenge, motivated by the fact that a fully-connected
neural network (FCNN) with piece-wise linear activation functions (PWLs) can
partition the input space into several linear regions, we extend this result to
arbitrary FCNNs by the strategy of linearizing the activation functions.
Applying this technique to solving classification problems, it is the first
time that the complete decision boundary of FCNNs has been able to be obtained.
Finally, we propose the DecisionNet (DNet), which divides the input space by
the hyper-planes of the decision boundary. Hence, each linear interval of the
DNet merely contains samples of the same label. Experiments show that the
surprising model compression efficiency of the DNet with an arbitrary
controlled precision.
- Abstract(参考訳): ディープラーニングに代表されるインテリジェントアルゴリズムの解釈可能性はまだ未解決の問題である。
本稿では,説明の2つの属性に基づく既存の説明可能な手法の欠点について論じる。
さらに、フィードフォワードマッピングに完全に依存するモデルは、このマッピングと最終モデルの関係を定量化することが困難であるため、説明不能を引き起こすことは極めて容易であると指摘した。
本稿では,データ空間分割の観点から,完全局所解釈可能なモデル非依存説明法(CLIMEP)の原理を提案する。
分類問題を研究するために,CLIMEPと意思決定境界の等価性についても検討した。
実際、CLIMEPの実装も困難である。
この課題に対処するために、一方向線形活性化関数(PWL)を持つ完全連結ニューラルネットワーク(FCNN)が入力空間を複数の線形領域に分割できるという事実を動機として、活性化関数を線形化する戦略により任意のFCNNに拡張する。
この手法を分類問題に応用し、FCNNの完全な決定境界が得られるのは初めてである。
最後に、決定境界の超平面によって入力空間を分割する決定ネット(DNet)を提案する。
したがって、DNetの各線形区間は単に同じラベルのサンプルを含むだけである。
実験により、任意の制御精度でDNetの驚くべきモデル圧縮効率が示された。
関連論文リスト
- GLinSAT: The General Linear Satisfiability Neural Network Layer By Accelerated Gradient Descent [12.409030267572243]
まず、エントロピー規則化線形計画問題として、ニューラルネットワーク出力予測問題を再構成する。
数値的性能向上を伴う高速化勾配降下アルゴリズムに基づいて,その問題を解決するため,アーキテクチャGLinSATを提案する。
これは、すべての操作が微分可能で行列分解自由な、最初の一般線形満足層である。
論文 参考訳(メタデータ) (2024-09-26T03:12:53Z) - Benign Overfitting in Deep Neural Networks under Lazy Training [72.28294823115502]
データ分布が適切に分離された場合、DNNは分類のためのベイズ最適テスト誤差を達成できることを示す。
よりスムーズな関数との補間により、より一般化できることを示す。
論文 参考訳(メタデータ) (2023-05-30T19:37:44Z) - A cusp-capturing PINN for elliptic interface problems [0.0]
ネットワークに付加的な特徴入力としてカスプ強化レベルセット関数を導入し,本質的な解特性を維持する。
提案したニューラルネットワークはメッシュフリーの利点があるため、不規則なドメインでの問題を容易に処理できる。
本研究では,カスプキャプチャ手法の有効性とネットワークモデルの精度を実証するために,一連の数値実験を行った。
論文 参考訳(メタデータ) (2022-10-16T03:05:18Z) - On the Effective Number of Linear Regions in Shallow Univariate ReLU
Networks: Convergence Guarantees and Implicit Bias [50.84569563188485]
我々は、ラベルが$r$のニューロンを持つターゲットネットワークの符号によって決定されるとき、勾配流が方向収束することを示す。
我々の結果は、標本サイズによらず、幅が$tildemathcalO(r)$である、緩やかなオーバーパラメータ化をすでに維持しているかもしれない。
論文 参考訳(メタデータ) (2022-05-18T16:57:10Z) - Deep Learning Approximation of Diffeomorphisms via Linear-Control
Systems [91.3755431537592]
我々は、制御に線形に依存する$dot x = sum_i=1lF_i(x)u_i$という形の制御系を考える。
対応するフローを用いて、コンパクトな点のアンサンブル上の微分同相写像の作用を近似する。
論文 参考訳(メタデータ) (2021-10-24T08:57:46Z) - Boundary Attributions Provide Normal (Vector) Explanations [27.20904776964045]
境界属性(BA)はこの問題に対処するための新しい説明法である。
BAは、ターゲット入力に対する局所的な決定境界の正規ベクトルを計算する。
ランダム化された平滑化ネットワークまたは堅牢に訓練されたネットワークのBAは、標準ネットワークよりも非境界アトリビューション方法にはるかに近い。
論文 参考訳(メタデータ) (2021-03-20T22:36:39Z) - Online Limited Memory Neural-Linear Bandits with Likelihood Matching [53.18698496031658]
本研究では,探索学習と表現学習の両方が重要な役割を果たす課題を解決するために,ニューラルネットワークの帯域について検討する。
破滅的な忘れ込みに対して耐性があり、完全にオンラインである可能性の高いマッチングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-07T14:19:07Z) - An Integer Linear Programming Framework for Mining Constraints from Data [81.60135973848125]
データから制約をマイニングするための一般的なフレームワークを提案する。
特に、構造化された出力予測の推論を整数線形プログラミング(ILP)問題とみなす。
提案手法は,9×9のスドクパズルの解法を学習し,基礎となるルールを提供することなく,例からツリー問題を最小限に分散させることが可能であることを示す。
論文 参考訳(メタデータ) (2020-06-18T20:09:53Z) - Scalable Partial Explainability in Neural Networks via Flexible
Activation Functions [13.71739091287644]
ディープニューラルネットワーク(NN)によって与えられる高次元の特徴と決定は、そのメカニズムを公開するために新しいアルゴリズムと方法を必要とする。
現在の最先端のNN解釈手法は、NN構造や操作自体よりも、NN出力と入力との直接的な関係に重点を置いている。
本稿では,スケーラブルなトポロジの下でのアクティベーション関数(AF)の役割を象徴的に説明することにより,部分的に説明可能な学習モデルを実現する。
論文 参考訳(メタデータ) (2020-06-10T20:30:15Z) - Convex Geometry and Duality of Over-parameterized Neural Networks [70.15611146583068]
有限幅2層ReLUネットワークの解析のための凸解析手法を開発した。
正規化学習問題に対する最適解が凸集合の極点として特徴づけられることを示す。
高次元では、トレーニング問題は無限に多くの制約を持つ有限次元凸問題としてキャストできることが示される。
論文 参考訳(メタデータ) (2020-02-25T23:05:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。