論文の概要: Interpretability of Blackbox Machine Learning Models through Dataview
Extraction and Shadow Model creation
- arxiv url: http://arxiv.org/abs/2002.00372v1
- Date: Sun, 2 Feb 2020 11:47:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-04 19:49:16.955883
- Title: Interpretability of Blackbox Machine Learning Models through Dataview
Extraction and Shadow Model creation
- Title(参考訳): データビュー抽出とシャドウモデル作成によるブラックボックス機械学習モデルの解釈可能性
- Authors: Rupam Patir, Shubham Singhal, C. Anantaram, Vikram Goyal
- Abstract要約: 同じトレーニングデータ上に構築された異なるディープラーニングモデルは、使用する基礎技術に基づいて、データのさまざまなビューをキャプチャすることができる。
ブラックボックス・ディープ・ラーニング・モデルがもたらす決定を説明するためには、トレーニングデータに対するそのモデルの見解を忠実に再現することが不可欠であると論じる。
- 参考スコア(独自算出の注目度): 4.456941846147708
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning models trained using massive amounts of data tend to capture
one view of the data and its associated mapping. Different deep learning models
built on the same training data may capture different views of the data based
on the underlying techniques used. For explaining the decisions arrived by
blackbox deep learning models, we argue that it is essential to reproduce that
model's view of the training data faithfully. This faithful reproduction can
then be used for explanation generation. We investigate two methods for data
view extraction: hill-climbing approach and a GAN-driven approach. We then use
this synthesized data for creating shadow models for explanation generation:
Decision-Tree model and Formal Concept Analysis based model. We evaluate these
approaches on a Blackbox model trained on public datasets and show its
usefulness in explanation generation.
- Abstract(参考訳): 大量のデータを使ってトレーニングされたディープラーニングモデルは、データの1つのビューとその関連するマッピングをキャプチャする傾向がある。
同じトレーニングデータ上に構築された異なるディープラーニングモデルは、使用する基礎技術に基づいて、データのさまざまなビューをキャプチャすることができる。
blackboxのディープラーニングモデルによってもたらされた決定を説明するために、トレーニングデータに対するモデルの見解を忠実に再現することが不可欠であると主張する。
この忠実な再現は、説明生成に使用できる。
データビュー抽出のための2つの手法であるヒルクライミングアプローチとgan駆動アプローチについて検討した。
次に、この合成データを用いて、説明生成のためのシャドーモデルを作成する:決定木モデルと形式的概念分析に基づくモデル。
公開データセット上でトレーニングされたブラックボックスモデル上でこれらのアプローチを評価し,その説明生成における有用性を示す。
関連論文リスト
- The Journey, Not the Destination: How Data Guides Diffusion Models [75.19694584942623]
大規模なデータセットでトレーニングされた拡散モデルは、顕著な品質と多様性のフォトリアリスティックなイメージを合成することができる。
i)拡散モデルの文脈でデータ属性の形式的概念を提供し、(ii)そのような属性を反実的に検証することを可能にする枠組みを提案する。
論文 参考訳(メタデータ) (2023-12-11T08:39:43Z) - Learn to Unlearn for Deep Neural Networks: Minimizing Unlearning
Interference with Gradient Projection [56.292071534857946]
最近のデータプライバシ法は、機械学習への関心を喚起している。
課題は、残りのデータセットに関する知識を変更することなく、忘れたデータに関する情報を捨てることである。
我々は、プロジェクテッド・グラディエント・アンラーニング(PGU)という、プロジェクテッド・グラディエント・ベースの学習手法を採用する。
トレーニングデータセットがもはやアクセスできない場合でも、スクラッチからスクラッチで再トレーニングされたモデルと同じような振る舞いをするモデルを、我々のアンラーニング手法が生成できることを実証するための実証的な証拠を提供する。
論文 参考訳(メタデータ) (2023-12-07T07:17:24Z) - Wrapper Boxes: Faithful Attribution of Model Predictions to Training Data [40.7542543934205]
ニューラルモデルを通常のように訓練し、学習した特徴表現を古典的解釈可能なモデルで使用して予測を行う「ラッパーボックス」パイプラインを提案する。
異なる大きさの7つの言語モデルに対して、まず、ラッパー古典モデルの予測性能が元のニューラルモデルにほぼ匹敵することを示した。
我々のパイプラインは、古典的なモデル決定をデータトレーニングに忠実に寄与しながら、ニューラルネットワークモデルの予測性能を保っている。
論文 参考訳(メタデータ) (2023-11-15T01:50:53Z) - Machine Unlearning Methodology base on Stochastic Teacher Network [33.763901254862766]
「忘れられる権利」は、データ所有者に、モデルトレーニングに使用したデータを積極的に取り出す権利を与える。
既存の機械学習手法は、ディープラーニングモデルから知識を素早く取り除くのに効果がないことが判明した。
本稿では,ネットワークを教師として利用して,忘れられたデータによる影響の軽減を図ることを提案する。
論文 参考訳(メタデータ) (2023-08-28T06:05:23Z) - LLM2Loss: Leveraging Language Models for Explainable Model Diagnostics [5.33024001730262]
我々は、失敗とバイアスのモデルパターンに関するセマンティックな洞察を提供するアプローチを提案する。
このような軽量モデルのアンサンブルを用いて,ブラックボックスモデルの性能に関する洞察を得られることを示す。
論文 参考訳(メタデータ) (2023-05-04T23:54:37Z) - TRAK: Attributing Model Behavior at Scale [79.56020040993947]
本稿では,大規模な微分モデルに対して有効かつ計算的に抽出可能なデータ属性法であるTRAK(Tracing with Randomly-trained After Kernel)を提案する。
論文 参考訳(メタデータ) (2023-03-24T17:56:22Z) - Dataless Knowledge Fusion by Merging Weights of Language Models [51.8162883997512]
微調整された事前学習言語モデルは、下流のNLPモデルを構築するための主要なパラダイムとなっている。
これは、より優れた単一モデルを生み出すために、個々のモデル間で知識を融合させる障壁を生み出します。
パラメータ空間のモデルをマージするデータレス知識融合法を提案する。
論文 参考訳(メタデータ) (2022-12-19T20:46:43Z) - Visualising Deep Network's Time-Series Representations [93.73198973454944]
機械学習モデルの普及にもかかわらず、多くの場合、モデルの内部で起きていることに関する洞察のないブラックボックスとして運用される。
本稿では,多次元時系列データの可視化に着目し,この問題に対処する手法を提案する。
高周波在庫市場データセットの実験は、この方法が迅速かつ識別可能な可視化を提供することを示しています。
論文 参考訳(メタデータ) (2021-03-12T09:53:34Z) - Distilling Interpretable Models into Human-Readable Code [71.11328360614479]
人間可読性は機械学習モデル解釈可能性にとって重要で望ましい標準である。
従来の方法を用いて解釈可能なモデルを訓練し,それを簡潔で可読なコードに抽出する。
本稿では,幅広いユースケースで効率的に,確実に高品質な結果を生成する分別線形曲線フィッティングアルゴリズムについて述べる。
論文 参考訳(メタデータ) (2021-01-21T01:46:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。