論文の概要: Personalized Interpretable Classification
- arxiv url: http://arxiv.org/abs/2302.02528v2
- Date: Wed, 19 Mar 2025 07:37:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-20 15:19:51.577573
- Title: Personalized Interpretable Classification
- Title(参考訳): パーソナライズされた解釈可能な分類
- Authors: Zengyou He, Pengju Li, Yifan Tang, Lianyu Hu, Mudi Jiang, Yan Liu,
- Abstract要約: 我々は、新たなデータマイニング問題として、パーソナライズされた解釈可能な分類を正式に導入する第一歩を踏み出します。
個々のテストサンプルに対してパーソナライズされたルールを識別するために,PICというグリージーなアルゴリズムを提案する。
我々のアルゴリズムは、最先端のSOTA(State-of-the-art)の解釈と同じレベルの予測精度を達成できる。
- 参考スコア(独自算出の注目度): 6.694135469324352
- License:
- Abstract: How to interpret a data mining model has received much attention recently, because people may distrust a black-box predictive model if they do not understand how the model works. Hence, it will be trustworthy if a model can provide transparent illustrations on how to make the decision. Although many rule-based interpretable classification algorithms have been proposed, all these existing solutions cannot directly construct an interpretable model to provide personalized prediction for each individual test sample. In this paper, we make a first step towards formally introducing personalized interpretable classification as a new data mining problem to the literature. In addition to the problem formulation on this new issue, we present a greedy algorithm called PIC (Personalized Interpretable Classifier) to identify a personalized rule for each individual test sample. To improve the running efficiency, a fast approximate algorithm called fPIC is presented as well. To demonstrate the necessity, feasibility and advantages of such a personalized interpretable classification method, we conduct a series of empirical studies on real data sets. The experimental results show that: (1) The new problem formulation enables us to find interesting rules for test samples that may be missed by existing non-personalized classifiers. (2) Our algorithms can achieve the same-level predictive accuracy as those state-of-the-art (SOTA) interpretable classifiers. (3) On a real data set for predicting breast cancer metastasis, such personalized interpretable classifiers can outperform SOTA methods in terms of both accuracy and interpretability.
- Abstract(参考訳): データマイニングモデルを解釈する方法が近年注目を集めている。なぜなら、モデルがどのように機能するか理解しなければ、人々はブラックボックスの予測モデルに不信感を抱く可能性があるからだ。
したがって、モデルが決定を下す方法に関する透明なイラストを提供することができれば、信頼に値するでしょう。
多くのルールベースの解釈可能な分類アルゴリズムが提案されているが、これらの既存のソリューションは、個別のテストサンプルに対してパーソナライズされた予測を提供するために、直接解釈可能なモデルを構築することはできない。
本稿では、文献に新たなデータマイニング問題として、パーソナライズされた解釈可能な分類を正式に導入する第一歩を示す。
この問題に対する問題定式化に加えて、各テストサンプルのパーソナライズされたルールを特定するために、PIC(Personalized Interpretable Classifier)と呼ばれるグリージーアルゴリズムを提案する。
実行効率を向上させるため、fPICと呼ばれる高速近似アルゴリズムも提示される。
このようなパーソナライズされた解釈可能な分類法の必要性,実現可能性,メリットを示すため,実データ集合に関する一連の実証的研究を行った。
実験結果から,(1)新しい問題定式化により,既存の非個人化分類器が欠落する可能性のあるテストサンプルの興味深いルールを見つけることができることがわかった。
2)我々のアルゴリズムは,これら最先端(SOTA)の解釈可能な分類器と同じレベルの予測精度を達成できる。
3) 乳がんの転移を予測するための実際のデータセットでは, パーソナライズされた解釈可能な分類器は, 精度と解釈可能性の両方の観点からSOTA法より優れている。
関連論文リスト
- Twice Class Bias Correction for Imbalanced Semi-Supervised Learning [59.90429949214134]
textbfTwice textbfClass textbfBias textbfCorrection (textbfTCBC) と呼ばれる新しいアプローチを導入する。
トレーニング過程におけるモデルパラメータのクラスバイアスを推定する。
非ラベル標本に対してモデルの擬似ラベルに二次補正を適用する。
論文 参考訳(メタデータ) (2023-12-27T15:06:36Z) - Understanding and Mitigating Classification Errors Through Interpretable
Token Patterns [58.91023283103762]
容易に解釈可能な用語でエラーを特徴付けることは、分類器が体系的なエラーを起こす傾向にあるかどうかを洞察する。
正しい予測と誤予測を区別するトークンのパターンを発見することを提案する。
提案手法であるPremiseが実際によく動作することを示す。
論文 参考訳(メタデータ) (2023-11-18T00:24:26Z) - Revealing Model Biases: Assessing Deep Neural Networks via Recovered
Sample Analysis [9.05607520128194]
本稿では、深層ニューラルネットワーク(DNN)がトレーニングサンプルの第一概念に依存しているかどうかを簡易かつ費用対効果で評価する手法を提案する。
提案手法は,テストや一般化のサンプルを一切必要とせず,訓練対象モデルのパラメータとマージンにあるトレーニングデータのみを必要とする。
論文 参考訳(メタデータ) (2023-06-10T11:20:04Z) - fAux: Testing Individual Fairness via Gradient Alignment [2.5329739965085785]
いずれの要件も持たない個別の公正性をテストするための新しいアプローチについて述べる。
提案手法は,合成データセットと実世界のデータセットの識別を効果的に行う。
論文 参考訳(メタデータ) (2022-10-10T21:27:20Z) - Conformal prediction for the design problem [72.14982816083297]
機械学習の現実的な展開では、次にテストすべきデータを選択するために予測アルゴリズムを使用します。
このような設定では、トレーニングデータとテストデータの間には、異なるタイプの分散シフトがある。
このような環境で予測の不確実性を定量化する手法を提案する。
論文 参考訳(メタデータ) (2022-02-08T02:59:12Z) - Have We Learned to Explain?: How Interpretability Methods Can Learn to
Encode Predictions in their Interpretations [20.441578071446212]
解釈を定量的に評価する手法としてEVAL-X、償却説明法としてREAL-Xを紹介します。
EVAL-Xは、予測が解釈にエンコードされたときに検出でき、定量的および放射線学者評価を通じてREAL-Xの利点を示す。
論文 参考訳(メタデータ) (2021-03-02T17:42:33Z) - Identifying Wrongly Predicted Samples: A Method for Active Learning [6.976600214375139]
本稿では,不確実性を超えた単純なサンプル選択基準を提案する。
予測されたサンプルを正しく識別するために、最先端の結果とより良いレートを示す。
論文 参考訳(メタデータ) (2020-10-14T09:00:42Z) - Understanding Classifier Mistakes with Generative Models [88.20470690631372]
ディープニューラルネットワークは教師付き学習タスクに有効であるが、脆弱であることが示されている。
本稿では、生成モデルを利用して、分類器が一般化に失敗するインスタンスを特定し、特徴付ける。
我々のアプローチは、トレーニングセットのクラスラベルに依存しないため、半教師付きでトレーニングされたモデルに適用できる。
論文 参考訳(メタデータ) (2020-10-05T22:13:21Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z) - Pre-training Is (Almost) All You Need: An Application to Commonsense
Reasoning [61.32992639292889]
事前学習されたトランスモデルの微調整は、一般的なNLPタスクを解決するための標準的なアプローチとなっている。
そこで本研究では,可視性ランキングタスクをフルテキスト形式でキャストする新たなスコアリング手法を提案する。
提案手法は, ランダム再起動にまたがって, より安定した学習段階を提供することを示す。
論文 参考訳(メタデータ) (2020-04-29T10:54:40Z) - Sampling Prediction-Matching Examples in Neural Networks: A
Probabilistic Programming Approach [9.978961706999833]
本稿では,確率的プログラミングを用いた分類器の予測レベルセットの探索について考察する。
我々は,予測器が同一の特定の予測信頼度を持つ例のセットとして,予測レベルを定義した。
合成データセットとMNISTを用いた実験により,本手法を実証する。
論文 参考訳(メタデータ) (2020-01-09T15:57:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。