論文の概要: A Generic and Model-Agnostic Exemplar Synthetization Framework for
Explainable AI
- arxiv url: http://arxiv.org/abs/2006.03896v3
- Date: Tue, 4 Aug 2020 17:05:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 21:05:58.925346
- Title: A Generic and Model-Agnostic Exemplar Synthetization Framework for
Explainable AI
- Title(参考訳): 説明可能なAIのためのジェネリックおよびモデル非依存な模範合成フレームワーク
- Authors: Antonio Barbalau, Adrian Cosma, Radu Tudor Ionescu and Marius Popescu
- Abstract要約: 我々は、説明可能なAIに焦点をあて、入力例を合成するための新しい汎用的でモデルに依存しないフレームワークを提案する。
我々は、データ生成の先行として機能する生成モデルを使用し、新しい進化戦略を用いて、その潜在空間をトラバースする。
私たちのフレームワークはモデルに依存しませんが、私たちが説明しようとしている機械学習モデルはブラックボックスです。
- 参考スコア(独自算出の注目度): 29.243901669124515
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the growing complexity of deep learning methods adopted in practical
applications, there is an increasing and stringent need to explain and
interpret the decisions of such methods. In this work, we focus on explainable
AI and propose a novel generic and model-agnostic framework for synthesizing
input exemplars that maximize a desired response from a machine learning model.
To this end, we use a generative model, which acts as a prior for generating
data, and traverse its latent space using a novel evolutionary strategy with
momentum updates. Our framework is generic because (i) it can employ any
underlying generator, e.g. Variational Auto-Encoders (VAEs) or Generative
Adversarial Networks (GANs), and (ii) it can be applied to any input data, e.g.
images, text samples or tabular data. Since we use a zero-order optimization
method, our framework is model-agnostic, in the sense that the machine learning
model that we aim to explain is a black-box. We stress out that our novel
framework does not require access or knowledge of the internal structure or the
training data of the black-box model. We conduct experiments with two
generative models, VAEs and GANs, and synthesize exemplars for various data
formats, image, text and tabular, demonstrating that our framework is generic.
We also employ our prototype synthetization framework on various black-box
models, for which we only know the input and the output formats, showing that
it is model-agnostic. Moreover, we compare our framework (available at
https://github.com/antoniobarbalau/exemplar) with a model-dependent approach
based on gradient descent, proving that our framework obtains equally-good
exemplars in a shorter computational time.
- Abstract(参考訳): 実用的なアプリケーションで採用される深層学習手法の複雑さが高まるにつれて、そのような方法の決定を説明・解釈する必要性が増している。
本研究では、AIの説明に焦点をあて、機械学習モデルから望ましい応答を最大化する入力例を合成するための、新しい汎用的でモデルに依存しないフレームワークを提案する。
この目的のために、データ生成の先行として機能する生成モデルを使用し、モーメント更新を伴う新しい進化戦略を用いて、その潜在空間をトラバースする。
私たちのフレームワークは汎用的です
(i)変分自動エンコーダ(VAE)やGAN(Generative Adversarial Networks)など、基礎となるジェネレータを利用することができる。
(ii)画像、テキストサンプル、表データなど、任意の入力データに適用することができる。
我々はゼロ次最適化手法を使っているので、説明しようとする機械学習モデルがブラックボックスであるという意味で、このフレームワークはモデルに依存しない。
我々は、新しいフレームワークはブラックボックスモデルの内部構造やトレーニングデータへのアクセスや知識を必要としないことを強調する。
VAEとGANの2つの生成モデルを用いて実験を行い、様々なデータフォーマット、画像、テキスト、表表の例を合成し、我々のフレームワークが汎用的であることを示す。
また、様々なブラックボックスモデルにプロトタイプ合成フレームワークを採用し、入力と出力フォーマットのみを知っており、モデルに依存しないことを示している。
さらに、我々のフレームワーク(https://github.com/antoniobarbalau/exemplar)を勾配降下に基づくモデル依存アプローチと比較し、我々のフレームワークがより短い計算時間で等質なexemplarを取得することを証明した。
関連論文リスト
- Learning to Walk from Three Minutes of Real-World Data with Semi-structured Dynamics Models [9.318262213262866]
コンタクトリッチシステムのための半構造化力学モデルを学習するための新しいフレームワークを提案する。
我々は,従来の手法よりもはるかに少ないデータで高精度な長距離予測を行う。
実世界のUnitree Go1四足歩行ロボットに対するアプローチを検証する。
論文 参考訳(メタデータ) (2024-10-11T18:11:21Z) - Promises and Pitfalls of Generative Masked Language Modeling: Theoretical Framework and Practical Guidelines [74.42485647685272]
GMLM(Generative Masked Language Models)に焦点を当てる。
我々は,マルコフ連鎖の入力として使用されるマスキングにより,データ分布の条件付き確率に適合するモデルを訓練し,モデルからサンプルを抽出する。
我々は,T5モデルを並列デコーディングに適応させ,最小品質の犠牲を伴って機械翻訳における2~3倍の高速化を実現した。
論文 参考訳(メタデータ) (2024-07-22T18:00:00Z) - Knowledge Fusion By Evolving Weights of Language Models [5.354527640064584]
本稿では,複数のモデルを統一モデルに統合するアプローチについて検討する。
本稿では進化的アルゴリズムに触発されたEvolverという知識融合手法を提案する。
論文 参考訳(メタデータ) (2024-06-18T02:12:34Z) - Machine Unlearning for Image-to-Image Generative Models [18.952634119351465]
本稿では、画像から画像への生成モデルのための機械学習のための統一フレームワークを提供する。
本稿では,厳密な理論解析を基盤とした計算効率のよいアルゴリズムを提案する。
ImageNet-1KとPlaces-365の2つの大規模データセットに関する実証研究は、我々のアルゴリズムが保持サンプルの可用性に依存していないことを示している。
論文 参考訳(メタデータ) (2024-02-01T05:35:25Z) - Sampling - Variational Auto Encoder - Ensemble: In the Quest of
Explainable Artificial Intelligence [0.0]
本稿では,新しい枠組みに基づく実証的評価を提示することによって,XAIに関する談話に寄与する。
VAEとアンサンブルスタックとSHapley Additive ExPlanationsを組み合わせたハイブリッドアーキテクチャである。
この発見は、アンサンブルスタック、VAE、SHAPを組み合わせることで、モデルのパフォーマンスが向上するだけでなく、簡単に説明可能なフレームワークを提供できることを示している。
論文 参考訳(メタデータ) (2023-09-25T02:46:19Z) - TSGM: A Flexible Framework for Generative Modeling of Synthetic Time Series [61.436361263605114]
時系列データは、研究者と産業組織間のデータの共有を妨げるため、しばしば不足または非常に敏感である。
本稿では,合成時系列の生成モデリングのためのオープンソースフレームワークである時系列生成モデリング(TSGM)を紹介する。
論文 参考訳(メタデータ) (2023-05-19T10:11:21Z) - HyperImpute: Generalized Iterative Imputation with Automatic Model
Selection [77.86861638371926]
カラムワイズモデルを適応的かつ自動的に構成するための一般化反復計算フレームワークを提案する。
既製の学習者,シミュレータ,インターフェースを備えた具体的な実装を提供する。
論文 参考訳(メタデータ) (2022-06-15T19:10:35Z) - Re-parameterizing Your Optimizers rather than Architectures [119.08740698936633]
本稿では,モデル固有の事前知識を構造学に取り入れ,汎用モデル(簡易モデル)の学習に使用する新しいパラダイムを提案する。
実装として,モデル固有のハイパーパラメータの集合に従って勾配を変更することによって,事前知識を付加する手法を提案する。
Reprでトレーニングされた単純なモデルに対しては、VGGスタイルのプレーンモデルに注目し、ReprでトレーニングされたそのようなシンプルなモデルがRep-VGGと呼ばれ、最近のよく設計されたモデルと同等に動作することを示す。
論文 参考訳(メタデータ) (2022-05-30T16:55:59Z) - InvGAN: Invertible GANs [88.58338626299837]
InvGANはInvertible GANの略で、高品質な生成モデルの潜在空間に実際の画像を埋め込むことに成功した。
これにより、画像のインペイント、マージ、オンラインデータ拡張を実行できます。
論文 参考訳(メタデータ) (2021-12-08T21:39:00Z) - Design of Dynamic Experiments for Black-Box Model Discrimination [72.2414939419588]
選択したいような動的モデル判別の設定を考えてみましょう。 (i) 最高のメカニスティックな時間変化モデルと (ii) 最高のモデルパラメータ推定値です。
勾配情報にアクセス可能な競合する力学モデルに対しては、既存の手法を拡張し、より広い範囲の問題の不確実性を組み込む。
これらのブラックボックスモデルをガウス過程サロゲートモデルに置き換えることで、モデル識別設定を拡張して、競合するブラックボックスモデルをさらに取り入れる。
論文 参考訳(メタデータ) (2021-02-07T11:34:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。