論文の概要: A copula-based visualization technique for a neural network
- arxiv url: http://arxiv.org/abs/2003.12317v1
- Date: Fri, 27 Mar 2020 10:32:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-19 04:35:37.956813
- Title: A copula-based visualization technique for a neural network
- Title(参考訳): copulaに基づくニューラルネットワークの可視化手法
- Authors: Yusuke Kubo, Yuto Komori, Toyonobu Okuyama, Hiroshi Tokieda
- Abstract要約: 機械学習の解釈可能性(英: Interpretability of machine learning)は、人間が意思決定の理由を理解できる範囲として定義される。
我々は、トレーニングされたニューラルネットワークが重要と考える特徴値を明らかにする新しいアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Interpretability of machine learning is defined as the extent to which humans
can comprehend the reason of a decision. However, a neural network is not
considered interpretable due to the ambiguity in its decision-making process.
Therefore, in this study, we propose a new algorithm that reveals which feature
values the trained neural network considers important and which paths are
mainly traced in the process of decision-making. In the proposed algorithm, the
score estimated by the correlation coefficients between the neural network
layers that can be calculated by applying the concept of a pair copula was
defined. We compared the estimated score with the feature importance values of
Random Forest, which is sometimes regarded as a highly interpretable algorithm,
in the experiment and confirmed that the results were consistent with each
other. This algorithm suggests an approach for compressing a neural network and
its parameter tuning because the algorithm identifies the paths that contribute
to the classification or prediction results.
- Abstract(参考訳): 機械学習の解釈可能性は、人間が意思決定の理由を理解できる範囲として定義される。
しかし,意思決定過程の曖昧さから,ニューラルネットワークは解釈できないと考えられる。
そこで本研究では,訓練されたニューラルネットワークが重要と考える特徴量と,意思決定の過程で主に追跡される経路を明らかにする新しいアルゴリズムを提案する。
提案アルゴリズムでは、ペアコプラの概念を適用して計算可能なニューラルネットワーク層間の相関係数によって推定されるスコアを定義した。
実験では,推定スコアと高度に解釈可能なアルゴリズムとみなされるランダムフォレストの特徴的重要度を比較し,結果が一致していることを確認した。
このアルゴリズムは、分類や予測結果に寄与する経路を特定するため、ニューラルネットワークとそのパラメータチューニングを圧縮するアプローチを提案する。
関連論文リスト
- SEF: A Method for Computing Prediction Intervals by Shifting the Error Function in Neural Networks [0.0]
本稿では,このカテゴリに属する新しい手法としてSEF(Shifting the Error Function)法を提案する。
提案手法では,1つのニューラルネットワークを3回トレーニングすることで,与えられた問題に対して対応する上境界と下限とを推定する。
この革新的なプロセスは、PIを効果的に生成し、不確実性定量化のための堅牢で効率的な技術をもたらす。
論文 参考訳(メタデータ) (2024-09-08T19:46:45Z) - Probabilistic Verification of Neural Networks using Branch and Bound [3.0567348883549816]
ニューラルネットワークの確率的検証は、入力の確率分布の下で、ニューラルネットワークの出力を正式に解析することに関わる。
本稿では,ニューラルネットワークの確率的検証を計算アルゴリズムに基づいて定量化するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-05-27T18:00:03Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - A new approach to generalisation error of machine learning algorithms:
Estimates and convergence [0.0]
本稿では,(一般化)誤差の推定と収束に対する新しいアプローチを提案する。
本研究の結果は,ニューラルネットワークの構造的仮定を伴わない誤差の推定を含む。
論文 参考訳(メタデータ) (2023-06-23T20:57:31Z) - The Cascaded Forward Algorithm for Neural Network Training [61.06444586991505]
本稿では,ニューラルネットワークのための新しい学習フレームワークであるCascaded Forward(CaFo)アルゴリズムを提案する。
FFとは異なり、我々のフレームワークは各カスケードブロックのラベル分布を直接出力する。
我々のフレームワークでは、各ブロックは独立して訓練できるので、並列加速度システムに容易に展開できる。
論文 参考訳(メタデータ) (2023-03-17T02:01:11Z) - Semantic Strengthening of Neuro-Symbolic Learning [85.6195120593625]
ニューロシンボリックアプローチは一般に確率論的目的のファジィ近似を利用する。
トラクタブル回路において,これを効率的に計算する方法を示す。
我々は,Warcraftにおける最小コストパスの予測,最小コスト完全マッチングの予測,スドクパズルの解法という3つの課題に対して,アプローチを検証した。
論文 参考訳(メタデータ) (2023-02-28T00:04:22Z) - Scalable computation of prediction intervals for neural networks via
matrix sketching [79.44177623781043]
既存の不確実性推定アルゴリズムでは、モデルアーキテクチャとトレーニング手順を変更する必要がある。
本研究では、与えられたトレーニングされたニューラルネットワークに適用し、近似予測間隔を生成できる新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-06T13:18:31Z) - PAC-Bayesian Learning of Aggregated Binary Activated Neural Networks
with Probabilities over Representations [2.047424180164312]
本研究では,確率論的ニューラルネットワークの予測器としての期待値について検討し,実数値重みによる正規分布を持つ二元活性化ニューラルネットワークの集約に着目した。
我々は、動的プログラミングアプローチのおかげで、深いが狭いニューラルネットワークに対して、正確な計算が引き続き実行可能であることを示す。
論文 参考訳(メタデータ) (2021-10-28T14:11:07Z) - Learning Structures for Deep Neural Networks [99.8331363309895]
我々は,情報理論に根ざし,計算神経科学に発達した効率的な符号化原理を採用することを提案する。
スパース符号化は出力信号のエントロピーを効果的に最大化できることを示す。
公開画像分類データセットを用いた実験により,提案アルゴリズムでスクラッチから学習した構造を用いて,最も優れた専門家設計構造に匹敵する分類精度が得られることを示した。
論文 参考訳(メタデータ) (2021-05-27T12:27:24Z) - The Connection Between Approximation, Depth Separation and Learnability
in Neural Networks [70.55686685872008]
学習可能性と近似能力の関係について検討する。
対象関数の深いネットワークでの学習性は、より単純なクラスがターゲットを近似する能力に依存することを示す。
論文 参考訳(メタデータ) (2021-01-31T11:32:30Z) - A biologically plausible neural network for local supervision in
cortical microcircuits [17.00937011213428]
我々は、明示的なエラーやバックプロパゲーションを避けるニューラルネットワークを訓練するためのアルゴリズムを導出する。
我々のアルゴリズムは、大脳皮質の接続構造や学習規則に顕著な類似性を持つニューラルネットワークにマップする。
論文 参考訳(メタデータ) (2020-11-30T17:35:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。