論文の概要: Explaining Neural Networks without Access to Training Data
- arxiv url: http://arxiv.org/abs/2206.04891v1
- Date: Fri, 10 Jun 2022 06:10:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-13 15:32:41.539811
- Title: Explaining Neural Networks without Access to Training Data
- Title(参考訳): トレーニングデータへのアクセス不要なニューラルネットワークの説明
- Authors: Sascha Marton, Stefan L\"udtke, Christian Bartelt, Andrej Tschalzev,
Heiner Stuckenschmidt
- Abstract要約: ニューラルネットワークのトレーニングデータがアクセスできない場合に、ニューラルネットワークの説明を生成することを検討する。
$mathcalI$-Netsは、ポストホック、グローバルモデル解釈可能性に対するサンプルフリーアプローチとして提案されている。
私たちは$mathcalI$-Netフレームワークを、標準およびソフトな決定木を代理モデルとして拡張します。
- 参考スコア(独自算出の注目度): 8.250944452542502
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We consider generating explanations for neural networks in cases where the
network's training data is not accessible, for instance due to privacy or
safety issues. Recently, $\mathcal{I}$-Nets have been proposed as a sample-free
approach to post-hoc, global model interpretability that does not require
access to training data. They formulate interpretation as a machine learning
task that maps network representations (parameters) to a representation of an
interpretable function. In this paper, we extend the $\mathcal{I}$-Net
framework to the cases of standard and soft decision trees as surrogate models.
We propose a suitable decision tree representation and design of the
corresponding $\mathcal{I}$-Net output layers. Furthermore, we make
$\mathcal{I}$-Nets applicable to real-world tasks by considering more realistic
distributions when generating the $\mathcal{I}$-Net's training data. We
empirically evaluate our approach against traditional global, post-hoc
interpretability approaches and show that it achieves superior results when the
training data is not accessible.
- Abstract(参考訳): ネットワークのトレーニングデータがアクセスできない場合、例えばプライバシーや安全性の問題により、ニューラルネットワークの説明を生成することを検討する。
最近、$\mathcal{i}$-nets はトレーニングデータへのアクセスを必要としないグローバルモデル解釈可能性に対するサンプルフリーなアプローチとして提案されている。
彼らは、ネットワーク表現(パラメータ)を解釈可能な関数の表現にマッピングする機械学習タスクとして解釈を定式化する。
本稿では,$\mathcal{i}$-net フレームワークを標準決定木およびソフト決定木をサロゲートモデルとして拡張する。
本稿では,対応する$\mathcal{I}$-Net出力層の適切な決定木表現と設計を提案する。
さらに,$\mathcal{I}$-Net のトレーニングデータを生成する際に,より現実的な分布を考慮し,実世界のタスクに $\mathcal{I}$-Net を適用する。
従来のグローバルかつポストホックな解釈可能性アプローチに対するアプローチを実証的に評価し,トレーニングデータにアクセスできない場合に優れた結果が得られることを示す。
関連論文リスト
- Fast, Distribution-free Predictive Inference for Neural Networks with
Coverage Guarantees [25.798057062452443]
本稿では,予測推論(PI)のための新しい計算効率アルゴリズムを提案する。
データに対する分布的な仮定は不要で、ニューラルネットワークの既存のブートストラップ方式よりも高速に計算できる。
論文 参考訳(メタデータ) (2023-06-11T04:03:58Z) - Neural Capacitance: A New Perspective of Neural Network Selection via
Edge Dynamics [85.31710759801705]
現在の実践は、性能予測のためのモデルトレーニングにおいて高価な計算コストを必要とする。
本稿では,学習中のシナプス接続(エッジ)上の制御ダイナミクスを解析し,ニューラルネットワーク選択のための新しいフレームワークを提案する。
我々のフレームワークは、ニューラルネットワークトレーニング中のバックプロパゲーションがシナプス接続の動的進化と等価であるという事実に基づいて構築されている。
論文 参考訳(メタデータ) (2022-01-11T20:53:15Z) - Self-Ensembling GAN for Cross-Domain Semantic Segmentation [107.27377745720243]
本稿では,セマンティックセグメンテーションのためのクロスドメインデータを利用した自己理解型生成逆数ネットワーク(SE-GAN)を提案する。
SE-GANでは、教師ネットワークと学生ネットワークは、意味分節マップを生成するための自己組織化モデルを構成する。
その単純さにもかかわらず、SE-GANは敵の訓練性能を大幅に向上させ、モデルの安定性を高めることができる。
論文 参考訳(メタデータ) (2021-12-15T09:50:25Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - Why Lottery Ticket Wins? A Theoretical Perspective of Sample Complexity
on Pruned Neural Networks [79.74580058178594]
目的関数の幾何学的構造を解析することにより、刈り取られたニューラルネットワークを訓練する性能を解析する。
本稿では,ニューラルネットワークモデルがプルーニングされるにつれて,一般化が保証された望ましいモデル近傍の凸領域が大きくなることを示す。
論文 参考訳(メタデータ) (2021-10-12T01:11:07Z) - Reasoning-Modulated Representations [85.08205744191078]
タスクが純粋に不透明でないような共通的な環境について研究する。
我々のアプローチは、新しいデータ効率表現学習の道を開く。
論文 参考訳(メタデータ) (2021-07-19T13:57:13Z) - AI without networks [0.0]
我々は、生成モデリングを取り入れたAIのためのネットワークフリーフレームワークを開発する。
我々は、この枠組みを、民族学、制御理論、数学の3つの異なる分野の例で示す。
また、生成AIによる倫理的法的課題に対処するために、この枠組みに基づいて容易に計算された信用割当手法を提案する。
論文 参考訳(メタデータ) (2021-06-07T05:50:02Z) - xRAI: Explainable Representations through AI [10.345196226375455]
本稿では,ニューラルネットワークがトレーニングしたネットワークから学習すべき数学的関数の記号表現を抽出する手法を提案する。
このアプローチは、訓練されたネットワークの重みとバイアスを入力として受信し、ネットワークが直接シンボリック表現に変換できる学習すべき関数の数値表現を出力する、いわゆる解釈ネットワークを訓練するというアイデアに基づいています。
論文 参考訳(メタデータ) (2020-12-10T22:49:29Z) - Interpretable Neural Networks for Panel Data Analysis in Economics [10.57079240576682]
本稿では,高い予測精度と解釈可能性の両方を達成可能な,解釈可能なニューラルネットワークモデルのクラスを提案する。
高次元の行政データを用いて、個人の月間雇用状況を予測するモデルを適用した。
テストセットの精度は94.5%で、従来の機械学習手法に匹敵する。
論文 参考訳(メタデータ) (2020-10-11T18:40:22Z) - A Theory of Usable Information Under Computational Constraints [103.5901638681034]
本稿では,複雑なシステムにおける情報推論のための新しいフレームワークを提案する。
我々の基礎はシャノンの情報理論の変分拡張に基づいている。
計算制約を組み込むことで,データから$mathcalV$-informationを確実に推定できることを示す。
論文 参考訳(メタデータ) (2020-02-25T06:09:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。