論文の概要: Deep Explainable Learning with Graph Based Data Assessing and Rule
Reasoning
- arxiv url: http://arxiv.org/abs/2211.04693v1
- Date: Wed, 9 Nov 2022 05:58:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-10 16:21:29.452149
- Title: Deep Explainable Learning with Graph Based Data Assessing and Rule
Reasoning
- Title(参考訳): グラフに基づくデータ評価とルール推論によるDeep Explainable Learning
- Authors: Yuanlong Li, Gaopan Huang, Min Zhou, Chuan Fu, Honglin Qiao, Yan He
- Abstract要約: 本稿では、ノイズハンドリングにおけるディープモデルの利点とエキスパートルールに基づく解釈可能性を組み合わせたエンドツーエンドのディープ・ツー・エンドのディープ・説明可能な学習手法を提案する。
提案手法は, 工業生産システムにおいて, 予測精度に匹敵し, より高い一般化安定性, より優れた解釈可能性を示す。
- 参考スコア(独自算出の注目度): 4.369058206183195
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Learning an explainable classifier often results in low accuracy model or
ends up with a huge rule set, while learning a deep model is usually more
capable of handling noisy data at scale, but with the cost of hard to explain
the result and weak at generalization. To mitigate this gap, we propose an
end-to-end deep explainable learning approach that combines the advantage of
deep model in noise handling and expert rule-based interpretability.
Specifically, we propose to learn a deep data assessing model which models the
data as a graph to represent the correlations among different observations,
whose output will be used to extract key data features. The key features are
then fed into a rule network constructed following predefined noisy expert
rules with trainable parameters. As these models are correlated, we propose an
end-to-end training framework, utilizing the rule classification loss to
optimize the rule learning model and data assessing model at the same time. As
the rule-based computation is none-differentiable, we propose a gradient
linking search module to carry the gradient information from the rule learning
model to the data assessing model. The proposed method is tested in an industry
production system, showing comparable prediction accuracy, much higher
generalization stability and better interpretability when compared with a
decent deep ensemble baseline, and shows much better fitting power than pure
rule-based approach.
- Abstract(参考訳): 説明可能な分類器の学習は、しばしば低い精度のモデルや巨大なルールセットで終わるが、深層モデルの学習は、通常、大規模にノイズの多いデータを扱うことができるが、その結果を説明するのが難しく、一般化が弱い。
このギャップを緩和するために,ノイズハンドリングにおける深いモデルの利点と,エキスパートルールに基づく解釈可能性を組み合わせた,エンドツーエンドの深い説明可能な学習手法を提案する。
具体的には,各観測結果の相関関係をグラフとしてモデル化した深部データ評価モデルを学習し,その出力を重要データの特徴抽出に用いることを提案する。
主要な機能は、トレーニング可能なパラメータを持つノイズの多いエキスパートルールに従って構築されたルールネットワークに入力される。
これらのモデルが相関しているため、ルール分類損失を利用してルール学習モデルとデータ評価モデルを同時に最適化するエンドツーエンドのトレーニングフレームワークを提案する。
ルールベースの計算は微分不可能であるため、ルール学習モデルからデータ評価モデルへの勾配情報を運ぶための勾配リンク探索モジュールを提案する。
提案手法は産業生産システムにおいて,適切な深層アンサンブルベースラインと比較して高い予測精度,より高い一般化安定性,より優れた解釈性を示すとともに,純粋なルールベースアプローチよりもはるかに優れた適合力を示す。
関連論文リスト
- Surprisal Driven $k$-NN for Robust and Interpretable Nonparametric
Learning [1.4293924404819704]
我々は情報理論の観点から、隣り合う従来のアルゴリズムに新たな光を当てた。
単一モデルを用いた分類,回帰,密度推定,異常検出などのタスクに対する頑健で解釈可能なフレームワークを提案する。
我々の研究は、分類と異常検出における最先端の成果を達成することによって、アーキテクチャの汎用性を示す。
論文 参考訳(メタデータ) (2023-11-17T00:35:38Z) - Pedagogical Rule Extraction for Learning Interpretable Models [0.0]
我々は,小データからより良いルールを学習するためのPreLIMというフレームワークを提案する。
統計モデルを使用してデータを拡張し、ルールベースのモデルを学ぶ。
実験では,最先端のPreLIM構成よりも優れたPreLIM構成を同定した。
論文 参考訳(メタデータ) (2021-12-25T20:54:53Z) - General Greedy De-bias Learning [163.65789778416172]
本稿では,関数空間における勾配降下のような偏りのあるモデルとベースモデルを優雅に訓練する一般グリーディ・デバイアス学習フレームワーク(GGD)を提案する。
GGDは、事前知識を持つタスク固有バイアスモデルと、事前知識を持たない自己アンサンブルバイアスモデルの両方の設定の下で、より堅牢なベースモデルを学ぶことができる。
論文 参考訳(メタデータ) (2021-12-20T14:47:32Z) - On-Policy Model Errors in Reinforcement Learning [9.507323314334572]
本研究では,実世界のデータと学習モデルを組み合わせた新しい手法を提案する。
中心となる考え方は、実世界のデータを政治上の予測に利用し、学習したモデルを使用して、異なるアクションに一般化することである。
提案手法は,追加のチューニングパラメータを導入することなく,既存のモデルベースアプローチを大幅に改善できることを示す。
論文 参考訳(メタデータ) (2021-10-15T10:15:53Z) - Evaluating State-of-the-Art Classification Models Against Bayes
Optimality [106.50867011164584]
正規化フローを用いて学習した生成モデルのベイズ誤差を正確に計算できることを示す。
われわれの手法を用いて、最先端の分類モデルについて徹底的な調査を行う。
論文 参考訳(メタデータ) (2021-06-07T06:21:20Z) - Churn Reduction via Distillation [54.5952282395487]
本研究は, 基礎モデルを教師として用いた蒸留によるトレーニングと, 予測的チャーンに対する明示的な制約によるトレーニングとの等価性を示す。
次に, 蒸留が近年の多くのベースラインに対する低チャーン訓練に有効であることを示す。
論文 参考訳(メタデータ) (2021-06-04T18:03:31Z) - Distilling Interpretable Models into Human-Readable Code [71.11328360614479]
人間可読性は機械学習モデル解釈可能性にとって重要で望ましい標準である。
従来の方法を用いて解釈可能なモデルを訓練し,それを簡潔で可読なコードに抽出する。
本稿では,幅広いユースケースで効率的に,確実に高品質な結果を生成する分別線形曲線フィッティングアルゴリズムについて述べる。
論文 参考訳(メタデータ) (2021-01-21T01:46:36Z) - S^3-Rec: Self-Supervised Learning for Sequential Recommendation with
Mutual Information Maximization [104.87483578308526]
本稿では,シーケンスレコメンデーションのための自己改善学習のためのモデルS3-Recを提案する。
そこで本稿では,属性,項目,サブシーケンス,シーケンス間の相関関係を学習するために,4つの補助的自己教師対象を考案する。
6つの実世界のデータセットで実施された大規模な実験は、既存の最先端手法よりも提案手法が優れていることを示す。
論文 参考訳(メタデータ) (2020-08-18T11:44:10Z) - Model-Augmented Actor-Critic: Backpropagating through Paths [81.86992776864729]
現在のモデルに基づく強化学習アプローチでは、単に学習されたブラックボックスシミュレータとしてモデルを使用する。
その微分可能性を利用してモデルをより効果的に活用する方法を示す。
論文 参考訳(メタデータ) (2020-05-16T19:18:10Z) - Metafeatures-based Rule-Extraction for Classifiers on Behavioral and
Textual Data [0.0]
複雑な「ブラックボックス」モデルの予測精度とグローバルな説明可能性を組み合わせるために、ルール抽出手法が提案されている。
我々は,より高度な,よりスパースなメタファに基づくルール抽出手法を開発し,検証する。
我々の分析の鍵となる発見は、メタフェースに基づく説明がブラックボックス予測モデルの振る舞いを模倣するのに優れていることである。
論文 参考訳(メタデータ) (2020-03-10T15:08:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。