論文の概要: Personalized Interpretable Classification
- arxiv url: http://arxiv.org/abs/2302.02528v1
- Date: Mon, 6 Feb 2023 01:59:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-07 17:50:45.849119
- Title: Personalized Interpretable Classification
- Title(参考訳): パーソナライズされた解釈可能な分類
- Authors: Zengyou He, Yifan Tang, Lianyu Hu, Mudi Jiang and Yan Liu
- Abstract要約: 我々は、新たなデータマイニング問題として、パーソナライズされた解釈可能な分類を正式に導入する第一歩を踏み出します。
実データ集合に関する一連の実証的研究を行う。
我々のアルゴリズムは、これら最先端(SOTA)の解釈可能な分類器と同じレベルの予測精度を達成できる。
- 参考スコア(独自算出の注目度): 8.806213269230057
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: How to interpret a data mining model has received much attention recently,
because people may distrust a black-box predictive model if they do not
understand how the model works. Hence, it will be trustworthy if a model can
provide transparent illustrations on how to make the decision. Although many
rule-based interpretable classification algorithms have been proposed, all
these existing solutions cannot directly construct an interpretable model to
provide personalized prediction for each individual test sample. In this paper,
we make a first step towards formally introducing personalized interpretable
classification as a new data mining problem to the literature. In addition to
the problem formulation on this new issue, we present a greedy algorithm called
PIC (Personalized Interpretable Classifier) to identify a personalized rule for
each individual test sample. To demonstrate the necessity, feasibility and
advantages of such a personalized interpretable classification method, we
conduct a series of empirical studies on real data sets. The experimental
results show that: (1) The new problem formulation enables us to find
interesting rules for test samples that may be missed by existing
non-personalized classifiers. (2) Our algorithm can achieve the same-level
predictive accuracy as those state-of-the-art (SOTA) interpretable classifiers.
(3) On a real data set for predicting breast cancer metastasis, such a
personalized interpretable classifier can outperform SOTA methods in terms of
both accuracy and interpretability.
- Abstract(参考訳): データマイニングモデルを解釈する方法は最近、モデルがどのように動作するのか理解できない場合、ブラックボックス予測モデルを信頼できない可能性があるため、多くの注目を集めています。
したがって、モデルが決定を下す方法に関する透明なイラストを提供することができれば、信頼に値するでしょう。
多くのルールベースの解釈可能な分類アルゴリズムが提案されているが、これらの既存のソリューションは、個々のテストサンプルごとにパーソナライズされた予測を提供するために、解釈可能なモデルを直接構築することはできない。
本稿では,文献に新たなデータマイニング問題として,パーソナライズ可能な分類を正式に導入するための第一歩を述べる。
この問題に対する問題定式化に加えて、各テストサンプルのパーソナライズされたルールを特定するために、PIC(Personalized Interpretable Classifier)と呼ばれるグリージーアルゴリズムを提案する。
このようなパーソナライズ可能な分類法の必要性、実現可能性、利点を示すために、実データ集合に関する一連の実証研究を行う。
実験結果から,(1)新しい問題定式化により,既存の非個人化分類器が見逃す可能性のあるテストサンプルの興味深いルールが見つかる。
2) このアルゴリズムは, 最先端 (sota) 解釈可能な分類器と同レベルの予測精度を実現できる。
3) 乳がん転移予測のための実データセットにおいて, パーソナライズ可能な分類器は, sota法を精度と解釈可能性の両方で上回ることができる。
関連論文リスト
- Twice Class Bias Correction for Imbalanced Semi-Supervised Learning [59.90429949214134]
textbfTwice textbfClass textbfBias textbfCorrection (textbfTCBC) と呼ばれる新しいアプローチを導入する。
トレーニング過程におけるモデルパラメータのクラスバイアスを推定する。
非ラベル標本に対してモデルの擬似ラベルに二次補正を適用する。
論文 参考訳(メタデータ) (2023-12-27T15:06:36Z) - Understanding and Mitigating Classification Errors Through Interpretable
Token Patterns [58.91023283103762]
容易に解釈可能な用語でエラーを特徴付けることは、分類器が体系的なエラーを起こす傾向にあるかどうかを洞察する。
正しい予測と誤予測を区別するトークンのパターンを発見することを提案する。
提案手法であるPremiseが実際によく動作することを示す。
論文 参考訳(メタデータ) (2023-11-18T00:24:26Z) - Revealing Model Biases: Assessing Deep Neural Networks via Recovered
Sample Analysis [9.05607520128194]
本稿では、深層ニューラルネットワーク(DNN)がトレーニングサンプルの第一概念に依存しているかどうかを簡易かつ費用対効果で評価する手法を提案する。
提案手法は,テストや一般化のサンプルを一切必要とせず,訓練対象モデルのパラメータとマージンにあるトレーニングデータのみを必要とする。
論文 参考訳(メタデータ) (2023-06-10T11:20:04Z) - fAux: Testing Individual Fairness via Gradient Alignment [2.5329739965085785]
いずれの要件も持たない個別の公正性をテストするための新しいアプローチについて述べる。
提案手法は,合成データセットと実世界のデータセットの識別を効果的に行う。
論文 参考訳(メタデータ) (2022-10-10T21:27:20Z) - Conformal prediction for the design problem [72.14982816083297]
機械学習の現実的な展開では、次にテストすべきデータを選択するために予測アルゴリズムを使用します。
このような設定では、トレーニングデータとテストデータの間には、異なるタイプの分散シフトがある。
このような環境で予測の不確実性を定量化する手法を提案する。
論文 参考訳(メタデータ) (2022-02-08T02:59:12Z) - Have We Learned to Explain?: How Interpretability Methods Can Learn to
Encode Predictions in their Interpretations [20.441578071446212]
解釈を定量的に評価する手法としてEVAL-X、償却説明法としてREAL-Xを紹介します。
EVAL-Xは、予測が解釈にエンコードされたときに検出でき、定量的および放射線学者評価を通じてREAL-Xの利点を示す。
論文 参考訳(メタデータ) (2021-03-02T17:42:33Z) - Identifying Wrongly Predicted Samples: A Method for Active Learning [6.976600214375139]
本稿では,不確実性を超えた単純なサンプル選択基準を提案する。
予測されたサンプルを正しく識別するために、最先端の結果とより良いレートを示す。
論文 参考訳(メタデータ) (2020-10-14T09:00:42Z) - Understanding Classifier Mistakes with Generative Models [88.20470690631372]
ディープニューラルネットワークは教師付き学習タスクに有効であるが、脆弱であることが示されている。
本稿では、生成モデルを利用して、分類器が一般化に失敗するインスタンスを特定し、特徴付ける。
我々のアプローチは、トレーニングセットのクラスラベルに依存しないため、半教師付きでトレーニングされたモデルに適用できる。
論文 参考訳(メタデータ) (2020-10-05T22:13:21Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z) - Pre-training Is (Almost) All You Need: An Application to Commonsense
Reasoning [61.32992639292889]
事前学習されたトランスモデルの微調整は、一般的なNLPタスクを解決するための標準的なアプローチとなっている。
そこで本研究では,可視性ランキングタスクをフルテキスト形式でキャストする新たなスコアリング手法を提案する。
提案手法は, ランダム再起動にまたがって, より安定した学習段階を提供することを示す。
論文 参考訳(メタデータ) (2020-04-29T10:54:40Z) - Sampling Prediction-Matching Examples in Neural Networks: A
Probabilistic Programming Approach [9.978961706999833]
本稿では,確率的プログラミングを用いた分類器の予測レベルセットの探索について考察する。
我々は,予測器が同一の特定の予測信頼度を持つ例のセットとして,予測レベルを定義した。
合成データセットとMNISTを用いた実験により,本手法を実証する。
論文 参考訳(メタデータ) (2020-01-09T15:57:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。