論文の概要: VAE-LIME: Deep Generative Model Based Approach for Local Data-Driven
Model Interpretability Applied to the Ironmaking Industry
- arxiv url: http://arxiv.org/abs/2007.10256v1
- Date: Wed, 15 Jul 2020 07:07:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-10 04:34:09.657112
- Title: VAE-LIME: Deep Generative Model Based Approach for Local Data-Driven
Model Interpretability Applied to the Ironmaking Industry
- Title(参考訳): VAE-LIME:局所データ駆動型モデル解釈のための深部生成モデルに基づく製鉄業への適用
- Authors: Cedric Schockaert, Vadim Macher, Alexander Schmitz
- Abstract要約: モデル予測だけでなく、その解釈可能性も、プロセスエンジニアに公開する必要があります。
LIMEに基づくモデルに依存しない局所的解釈可能性ソリューションが最近出現し、元の手法が改良された。
本稿では, 燃焼炉で生成する高温金属の温度を推定するデータ駆動型モデルの局所的解釈可能性に関する新しいアプローチ, VAE-LIMEを提案する。
- 参考スコア(独自算出の注目度): 70.10343492784465
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning applied to generate data-driven models are lacking of
transparency leading the process engineer to lose confidence in relying on the
model predictions to optimize his industrial process. Bringing processes in the
industry to a certain level of autonomy using data-driven models is
particularly challenging as the first user of those models, is the expert in
the process with often decades of experience. It is necessary to expose to the
process engineer, not solely the model predictions, but also their
interpretability. To that end, several approaches have been proposed in the
literature. The Local Interpretable Model-agnostic Explanations (LIME) method
has gained a lot of interest from the research community recently. The
principle of this method is to train a linear model that is locally
approximating the black-box model, by generating randomly artificial data
points locally. Model-agnostic local interpretability solutions based on LIME
have recently emerged to improve the original method. We present in this paper
a novel approach, VAE-LIME, for local interpretability of data-driven models
forecasting the temperature of the hot metal produced by a blast furnace. Such
ironmaking process data is characterized by multivariate time series with high
inter-correlation representing the underlying process in a blast furnace. Our
contribution is to use a Variational Autoencoder (VAE) to learn the complex
blast furnace process characteristics from the data. The VAE is aiming at
generating optimal artificial samples to train a local interpretable model
better representing the black-box model in the neighborhood of the input sample
processed by the black-box model to make a prediction. In comparison with LIME,
VAE-LIME is showing a significantly improved local fidelity of the local
interpretable linear model with the black-box model resulting in robust model
interpretability.
- Abstract(参考訳): データ駆動モデルの生成に応用された機械学習は、透明性の欠如により、プロセスエンジニアは、自身の産業プロセスの最適化にモデル予測に依存する自信を失う。
データ駆動モデルを使って、業界内のプロセスを一定のレベルの自律性に導くことは、そのモデルの最初のユーザーとして特に困難であり、しばしば数十年の経験を持つプロセスのエキスパートである。
モデル予測だけでなく、その解釈可能性も同時に、プロセスエンジニアに公開する必要がある。
そのために、文献にいくつかのアプローチが提案されている。
近年,LIME(Local Interpretable Model-Agnostic Explanations)法が研究コミュニティから多くの関心を集めている。
本手法の原理は,無作為なデータポイントを局所的に生成することにより,ブラックボックスモデルを局所的に近似する線形モデルを訓練することである。
limeに基づくモデル非依存な局所解釈可能性ソリューションが最近登場し、元の方法を改善している。
本稿では,高炉で発生する熱金属の温度を予測できるデータ駆動モデルの局所的解釈のための新しい手法であるvae-limeを提案する。
このような製鉄工程データは、高炉の炉底過程を表す高い相関関係を有する多変量時系列によって特徴づけられる。
我々の貢献は, 変分オートエンコーダ(vae)を用いてデータから複雑な高炉プロセス特性を学習することである。
VAEは、ブラックボックスモデルによって処理された入力サンプルの近傍のブラックボックスモデルを表現するために、ローカルの解釈可能なモデルをトレーニングするために最適な人工サンプルを生成することを目指している。
LIMEと比較して、VAE-LIMEは局所的解釈可能な線形モデルの局所的忠実度をブラックボックスモデルで改善し、頑健なモデル解釈可能性を示している。
関連論文リスト
- On conditional diffusion models for PDE simulations [53.01911265639582]
スパース観測の予測と同化のためのスコアベース拡散モデルについて検討した。
本稿では,予測性能を大幅に向上させる自動回帰サンプリング手法を提案する。
また,条件付きスコアベースモデルに対する新たなトレーニング戦略を提案する。
論文 参考訳(メタデータ) (2024-10-21T18:31:04Z) - Robustness of Explainable Artificial Intelligence in Industrial Process Modelling [43.388607981317016]
我々は,地中真実シミュレーションと感度解析に基づいて,現在のXAI手法を評価する。
モデル化された産業プロセスの真の感度を正確に予測する能力において,XAI法とXAI法の違いを示す。
論文 参考訳(メタデータ) (2024-07-12T09:46:26Z) - Adapting Large Language Models for Content Moderation: Pitfalls in Data
Engineering and Supervised Fine-tuning [79.53130089003986]
大規模言語モデル(LLM)は、様々なドメインでタスクを処理するための実現可能なソリューションとなっている。
本稿では、コンテンツモデレーションのためにプライベートにデプロイ可能なLLMモデルを微調整する方法を紹介する。
論文 参考訳(メタデータ) (2023-10-05T09:09:44Z) - Dataless Knowledge Fusion by Merging Weights of Language Models [51.8162883997512]
微調整された事前学習言語モデルは、下流のNLPモデルを構築するための主要なパラダイムとなっている。
これは、より優れた単一モデルを生み出すために、個々のモデル間で知識を融合させる障壁を生み出します。
パラメータ空間のモデルをマージするデータレス知識融合法を提案する。
論文 参考訳(メタデータ) (2022-12-19T20:46:43Z) - How to Learn when Data Gradually Reacts to Your Model [10.074466859579571]
我々は,これらの効果が存在する場合でも,性能損失を最小限に抑えるための新しいアルゴリズム Stateful Performative Gradient Descent (Stateful PerfGD) を提案する。
実験の結果, Stateful PerfGD は従来の最先端手法よりもかなり優れていたことが確認された。
論文 参考訳(メタデータ) (2021-12-13T22:05:26Z) - Bellman: A Toolbox for Model-Based Reinforcement Learning in TensorFlow [14.422129911404472]
Bellmanはこのギャップを埋めることを目指しており、モデルベースのRLツールボックスを初めて完全に設計し、テストした。
我々のモジュラーアプローチは、幅広い環境モデルと、最先端アルゴリズムを復元する汎用モデルベースのエージェントクラスを組み合わせることができる。
論文 参考訳(メタデータ) (2021-03-26T11:32:27Z) - Distilling Interpretable Models into Human-Readable Code [71.11328360614479]
人間可読性は機械学習モデル解釈可能性にとって重要で望ましい標準である。
従来の方法を用いて解釈可能なモデルを訓練し,それを簡潔で可読なコードに抽出する。
本稿では,幅広いユースケースで効率的に,確実に高品質な結果を生成する分別線形曲線フィッティングアルゴリズムについて述べる。
論文 参考訳(メタデータ) (2021-01-21T01:46:36Z) - Generative Temporal Difference Learning for Infinite-Horizon Prediction [101.59882753763888]
我々は、無限確率的地平線を持つ環境力学の予測モデルである$gamma$-modelを導入する。
トレーニングタイムとテストタイムの複合的なエラーの間には、そのトレーニングが避けられないトレードオフを反映しているかについて議論する。
論文 参考訳(メタデータ) (2020-10-27T17:54:12Z) - Model-based Policy Optimization with Unsupervised Model Adaptation [37.09948645461043]
本研究では,不正確なモデル推定による実データとシミュレーションデータのギャップを埋めて,より良いポリシ最適化を実現する方法について検討する。
本稿では,教師なしモデル適応を導入したモデルベース強化学習フレームワークAMPOを提案する。
提案手法は,一連の連続制御ベンチマークタスクにおけるサンプル効率の観点から,最先端の性能を実現する。
論文 参考訳(メタデータ) (2020-10-19T14:19:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。