論文の概要: Deducing neighborhoods of classes from a fitted model
- arxiv url: http://arxiv.org/abs/2009.05516v2
- Date: Thu, 17 Sep 2020 09:47:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-19 21:16:55.501130
- Title: Deducing neighborhoods of classes from a fitted model
- Title(参考訳): 適合モデルによるクラス近傍の導出
- Authors: Alexander Gerharz, Andreas Groll, Gunther Schauberger
- Abstract要約: 本稿では,新しいタイプの解釈可能な機械学習手法を提案する。
量子シフトを用いた分類モデルでは、特徴空間の予測クラスへの分割を理解するのに役立ちます。
基本的に、実際のデータポイント(または特定の関心点)を使用し、特定の特徴をわずかに引き上げたり減少させたりした後の予測の変化を観察する。
- 参考スコア(独自算出の注目度): 68.8204255655161
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In todays world the request for very complex models for huge data sets is
rising steadily. The problem with these models is that by raising the
complexity of the models, it gets much harder to interpret them. The growing
field of \emph{interpretable machine learning} tries to make up for the lack of
interpretability in these complex (or even blackbox-)models by using specific
techniques that can help to understand those models better. In this article a
new kind of interpretable machine learning method is presented, which can help
to understand the partitioning of the feature space into predicted classes in a
classification model using quantile shifts. To illustrate in which situations
this quantile shift method (QSM) could become beneficial, it is applied to a
theoretical medical example and a real data example. Basically, real data
points (or specific points of interest) are used and the changes of the
prediction after slightly raising or decreasing specific features are observed.
By comparing the predictions before and after the manipulations, under certain
conditions the observed changes in the predictions can be interpreted as
neighborhoods of the classes with regard to the manipulated features.
Chordgraphs are used to visualize the observed changes.
- Abstract(参考訳): 今日の世界では、巨大なデータセットに対する非常に複雑なモデルの要求が着実に増加している。
これらのモデルの問題は、モデルの複雑さを高めることで、それらを理解するのがずっと難しくなります。
emph{interpretable machine learning}の分野は、これらの複雑な(あるいはブラックボックス)モデルにおける解釈可能性の欠如を、これらのモデルをよりよく理解するのに役立つ特定の技術を用いて補おうとしている。
本稿では、分位シフトを用いた分類モデルにおいて、特徴空間の予測クラスへの分割を理解するのに役立つ新しいタイプの解釈可能な機械学習手法を提案する。
この量子シフト法(QSM)がどのような状況で有用かを説明するために、理論的な医学的例と実際のデータ例に適用する。
基本的には、実際のデータポイント(または特定の関心点)を使用し、特定の特徴をわずかに引き上げたり減らしたりした後の予測の変化を観察する。
操作前後の予測を比較することにより、ある条件下で観察された予測の変化を操作された特徴に関するクラスの近傍と解釈することができる。
コードグラフは観察された変化を可視化するために使用される。
関連論文リスト
- A Lightweight Generative Model for Interpretable Subject-level Prediction [0.07989135005592125]
本稿では,本質的に解釈可能な単一対象予測手法を提案する。
実験により、結果のモデルを効率よく逆転させ、正確な主観レベルの予測を行うことが示されている。
論文 参考訳(メタデータ) (2023-06-19T18:20:29Z) - Explanation Shift: How Did the Distribution Shift Impact the Model? [23.403838118256907]
本研究では,分布変化による説明特性の変化について検討した。
我々は、合成例と実世界のデータセットを用いて、異なる種類の分布シフトを分析する。
我々は、実験を再現するために使用されるコードと同様に、オープンソースのPythonパッケージでメソッドをリリースします。
論文 参考訳(メタデータ) (2023-03-14T17:13:01Z) - On the Generalization and Adaption Performance of Causal Models [99.64022680811281]
異なる因果発見は、データ生成プロセスを一連のモジュールに分解するために提案されている。
このようなモジュラニューラル因果モデルの一般化と適応性能について検討する。
我々の分析では、モジュラーニューラル因果モデルが、低データレギュレーションにおけるゼロおよび少数ショットの適応において、他のモデルよりも優れていることを示している。
論文 参考訳(メタデータ) (2022-06-09T17:12:32Z) - Entropy optimized semi-supervised decomposed vector-quantized
variational autoencoder model based on transfer learning for multiclass text
classification and generation [3.9318191265352196]
多クラステキスト分類とテキスト生成のための半教師付き離散潜在変数モデルを提案する。
提案モデルは,量子化変圧器モデルの学習に伝達学習の概念を用いる。
実験結果から,提案モデルが最先端モデルを大幅に上回ったことが示唆された。
論文 参考訳(メタデータ) (2021-11-10T07:07:54Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Learning outside the Black-Box: The pursuit of interpretable models [78.32475359554395]
本稿では,任意の連続ブラックボックス関数の連続的大域的解釈を生成するアルゴリズムを提案する。
我々の解釈は、その芸術の以前の状態から飛躍的な進歩を表している。
論文 参考訳(メタデータ) (2020-11-17T12:39:44Z) - Explainable Matrix -- Visualization for Global and Local
Interpretability of Random Forest Classification Ensembles [78.6363825307044]
本研究では,ランダムフォレスト (RF) 解釈のための新しい可視化手法である Explainable Matrix (ExMatrix) を提案する。
単純なマトリックスのようなメタファで、行はルール、列は特徴、セルはルールを述語する。
ExMatrixの適用性は、異なる例を通じて確認され、RFモデルの解釈可能性を促進するために実際にどのように使用できるかを示している。
論文 参考訳(メタデータ) (2020-05-08T21:03:48Z) - Learning What Makes a Difference from Counterfactual Examples and
Gradient Supervision [57.14468881854616]
ニューラルネットワークの一般化能力を改善するための補助的学習目標を提案する。
我々は、異なるラベルを持つ最小差の例のペア、すなわち反ファクトまたはコントラストの例を使用し、タスクの根底にある因果構造を示す信号を与える。
このテクニックで訓練されたモデルは、配布外テストセットのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2020-04-20T02:47:49Z) - Metafeatures-based Rule-Extraction for Classifiers on Behavioral and
Textual Data [0.0]
複雑な「ブラックボックス」モデルの予測精度とグローバルな説明可能性を組み合わせるために、ルール抽出手法が提案されている。
我々は,より高度な,よりスパースなメタファに基づくルール抽出手法を開発し,検証する。
我々の分析の鍵となる発見は、メタフェースに基づく説明がブラックボックス予測モデルの振る舞いを模倣するのに優れていることである。
論文 参考訳(メタデータ) (2020-03-10T15:08:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。