論文の概要: Pedagogical Rule Extraction for Learning Interpretable Models
- arxiv url: http://arxiv.org/abs/2112.13285v1
- Date: Sat, 25 Dec 2021 20:54:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-29 06:12:33.513178
- Title: Pedagogical Rule Extraction for Learning Interpretable Models
- Title(参考訳): 解釈モデル学習のための教育則抽出
- Authors: Vadim Arzamasov, Benjamin Jochum, Klemens B\"ohm
- Abstract要約: 我々は,小データからより良いルールを学習するためのPreLIMというフレームワークを提案する。
統計モデルを使用してデータを拡張し、ルールベースのモデルを学ぶ。
実験では,最先端のPreLIM構成よりも優れたPreLIM構成を同定した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Machine-learning models are ubiquitous. In some domains, for instance, in
medicine, the models' predictions must be interpretable. Decision trees,
classification rules, and subgroup discovery are three broad categories of
supervised machine-learning models presenting knowledge in the form of
interpretable rules. The accuracy of these models learned from small datasets
is usually low. Obtaining larger datasets is often hard to impossible. We
propose a framework dubbed PRELIM to learn better rules from small data. It
augments data using statistical models and employs it to learn a rulebased
model. In our extensive experiments, we identified PRELIM configurations that
outperform state-of-the-art.
- Abstract(参考訳): 機械学習モデルはユビキタスです。
いくつかの領域、例えば医学では、モデルの予測は解釈されなければならない。
決定木、分類規則、サブグループ発見は、解釈可能なルールの形で知識を示す教師付き機械学習モデルの3つの幅広いカテゴリである。
小さなデータセットから学んだこれらのモデルの精度は通常低い。
大きなデータセットを得ることは、しばしば不可能ではない。
我々は,小データからよりよいルールを学ぶためのprelimというフレームワークを提案する。
統計モデルを使用してデータを拡張し、ルールベースのモデルを学ぶ。
実験の結果,PreLIMの構成は最先端よりも優れていた。
関連論文リスト
- Non-Invasive Fairness in Learning through the Lens of Data Drift [88.37640805363317]
データや学習アルゴリズムを変更することなく、機械学習モデルの公平性を向上する方法を示す。
異なる集団間の傾向のばらつきと、学習モデルと少数民族間の連続的な傾向は、データドリフトと類似している。
このドリフトを解決するための2つの戦略(モデル分割とリウィーディング)を探索し、基礎となるデータに対するモデル全体の適合性を改善することを目的としている。
論文 参考訳(メタデータ) (2023-03-30T17:30:42Z) - Variation of Gender Biases in Visual Recognition Models Before and After
Finetuning [29.55318393877906]
本稿では,下流タスクにおける大規模視覚認識モデルの微調整前後のバイアスの変化を計測するフレームワークを提案する。
ImageNet-21kのようなデータセットでトレーニングされた教師付きモデルは、事前学習されたバイアスを保持する傾向にある。
また、大規模データセットに微調整されたモデルでは、新しいバイアス付きアソシエーションを導入する可能性が高くなることもわかりました。
論文 参考訳(メタデータ) (2023-03-14T03:42:47Z) - Deep Explainable Learning with Graph Based Data Assessing and Rule
Reasoning [4.369058206183195]
本稿では、ノイズハンドリングにおけるディープモデルの利点とエキスパートルールに基づく解釈可能性を組み合わせたエンドツーエンドのディープ・ツー・エンドのディープ・説明可能な学習手法を提案する。
提案手法は, 工業生産システムにおいて, 予測精度に匹敵し, より高い一般化安定性, より優れた解釈可能性を示す。
論文 参考訳(メタデータ) (2022-11-09T05:58:56Z) - Synthetic Model Combination: An Instance-wise Approach to Unsupervised
Ensemble Learning [92.89846887298852]
ラベル付きデータのトレーニングセットから学ぶ機会のない、新しいテストデータに対する予測を検討する。
専門家モデルのセットと予測へのアクセスと、トレーニングに使用するデータセットに関する制限された情報を提供すること。
論文 参考訳(メタデータ) (2022-10-11T10:20:31Z) - ALT-MAS: A Data-Efficient Framework for Active Testing of Machine
Learning Algorithms [58.684954492439424]
少量のラベル付きテストデータのみを用いて機械学習モデルを効率的にテストする新しいフレームワークを提案する。
ベイズニューラルネットワーク(bnn)を用いたモデルアンダーテストの関心指標の推定が目的である。
論文 参考訳(メタデータ) (2021-04-11T12:14:04Z) - Distilling Interpretable Models into Human-Readable Code [71.11328360614479]
人間可読性は機械学習モデル解釈可能性にとって重要で望ましい標準である。
従来の方法を用いて解釈可能なモデルを訓練し,それを簡潔で可読なコードに抽出する。
本稿では,幅広いユースケースで効率的に,確実に高品質な結果を生成する分別線形曲線フィッティングアルゴリズムについて述べる。
論文 参考訳(メタデータ) (2021-01-21T01:46:36Z) - Field-wise Learning for Multi-field Categorical Data [27.100048708707593]
マルチフィールド分類データを用いた新しい学習法を提案する。
これにより、モデルが各カテゴリに適合し、基礎となるデータの違いをよりよく捉えることができる。
2つの大規模データセットに対する実験結果から,本モデルの有効性が示された。
論文 参考訳(メタデータ) (2020-12-01T01:10:14Z) - Deducing neighborhoods of classes from a fitted model [68.8204255655161]
本稿では,新しいタイプの解釈可能な機械学習手法を提案する。
量子シフトを用いた分類モデルでは、特徴空間の予測クラスへの分割を理解するのに役立ちます。
基本的に、実際のデータポイント(または特定の関心点)を使用し、特定の特徴をわずかに引き上げたり減少させたりした後の予測の変化を観察する。
論文 参考訳(メタデータ) (2020-09-11T16:35:53Z) - Explainable Matrix -- Visualization for Global and Local
Interpretability of Random Forest Classification Ensembles [78.6363825307044]
本研究では,ランダムフォレスト (RF) 解釈のための新しい可視化手法である Explainable Matrix (ExMatrix) を提案する。
単純なマトリックスのようなメタファで、行はルール、列は特徴、セルはルールを述語する。
ExMatrixの適用性は、異なる例を通じて確認され、RFモデルの解釈可能性を促進するために実際にどのように使用できるかを示している。
論文 参考訳(メタデータ) (2020-05-08T21:03:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。