論文の概要: Visualisation and knowledge discovery from interpretable models
- arxiv url: http://arxiv.org/abs/2005.03632v2
- Date: Fri, 8 May 2020 08:22:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-05 22:23:07.372368
- Title: Visualisation and knowledge discovery from interpretable models
- Title(参考訳): 解釈可能なモデルからの可視化と知識発見
- Authors: Sreejita Ghosh, Peter Tino, Kerstin Bunte
- Abstract要約: 欠落した値も扱える本質的な解釈可能なモデルをいくつか紹介する。
合成データセットと実世界のデータセットでアルゴリズムを実証した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Increasing number of sectors which affect human lives, are using Machine
Learning (ML) tools. Hence the need for understanding their working mechanism
and evaluating their fairness in decision-making, are becoming paramount,
ushering in the era of Explainable AI (XAI). In this contribution we introduced
a few intrinsically interpretable models which are also capable of dealing with
missing values, in addition to extracting knowledge from the dataset and about
the problem. These models are also capable of visualisation of the classifier
and decision boundaries: they are the angle based variants of Learning Vector
Quantization. We have demonstrated the algorithms on a synthetic dataset and a
real-world one (heart disease dataset from the UCI repository). The newly
developed classifiers helped in investigating the complexities of the UCI
dataset as a multiclass problem. The performance of the developed classifiers
were comparable to those reported in literature for this dataset, with
additional value of interpretability, when the dataset was treated as a binary
class problem.
- Abstract(参考訳): 人間の生活に影響を与えるセクターの増加は、機械学習(ML)ツールを使用している。
そのため、作業メカニズムを理解し、意思決定における公平さを評価する必要性が最重要となり、説明可能なAI(XAI)の時代が到来する。
このコントリビューションでは、データセットと問題に関する知識の抽出に加えて、欠落した値を扱うことができるいくつかの本質的な解釈可能なモデルを導入しました。
これらのモデルは分類器と決定境界の可視化も可能であり、学習ベクトル量子化の角度に基づく変種である。
我々は、合成データセットと実世界のデータセット(uciリポジトリからの心疾患データセット)でアルゴリズムを実証した。
新たに開発された分類器は、多クラス問題としてのUCIデータセットの複雑さの調査に役立った。
開発した分類器の性能は、このデータセットの文献で報告されているものと同等であり、データ集合がバイナリクラス問題として扱われたとき、解釈可能性の付加価値があった。
関連論文リスト
- iGAiVA: Integrated Generative AI and Visual Analytics in a Machine Learning Workflow for Text Classification [2.0094862015890245]
視覚分析(VA)を用いて,大規模言語モデルを用いた合成データの生成を誘導する手法を提案する。
本稿では,データ不足の種別について論じ,その識別を支援するVA技術について述べるとともに,対象データ合成の有効性を実証する。
論文 参考訳(メタデータ) (2024-09-24T08:19:45Z) - Towards Better Modeling with Missing Data: A Contrastive Learning-based
Visual Analytics Perspective [7.577040836988683]
データ不足は機械学習(ML)モデリングの課題となる可能性がある。
現在のアプローチは、特徴計算とラベル予測に分類される。
本研究は、観測データに欠落した値でモデル化するコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-18T13:16:24Z) - Machine Learning Based Missing Values Imputation in Categorical Datasets [2.5611256859404983]
この研究では、分類データセットのギャップを埋めるための機械学習アルゴリズムの使用について検討した。
Error Correction Output Codesフレームワークを使用して構築されたアンサンブルモデルに重点が置かれた。
大量のラベル付きデータの要求を含む、これらの奨励的な結果にもかかわらず、データ計算の欠如に対する深い学習には障害がある。
論文 参考訳(メタデータ) (2023-06-10T03:29:48Z) - Interpretable ML for Imbalanced Data [22.355966235617014]
不均衡なデータは、クラス間の関係が歪んで不明瞭である可能性があるため、ディープ・ネットワークのブラックボックスの性質を合成する。
不均衡なデータの複雑性を調査する既存の手法は、バイナリ分類、浅い学習モデル、低次元データを対象としている。
本稿では,ディープラーニングモデルの利用者がクラスプロトタイプ,サブコンセプト,アウトリアインスタンスを識別し,視覚化し,理解するために利用できる一連の手法を提案する。
論文 参考訳(メタデータ) (2022-12-15T11:50:31Z) - RandomSCM: interpretable ensembles of sparse classifiers tailored for
omics data [59.4141628321618]
決定規則の結合や解離に基づくアンサンブル学習アルゴリズムを提案する。
モデルの解釈可能性により、高次元データのバイオマーカー発見やパターン発見に有用である。
論文 参考訳(メタデータ) (2022-08-11T13:55:04Z) - An Empirical Investigation of Commonsense Self-Supervision with
Knowledge Graphs [67.23285413610243]
大規模知識グラフから抽出した情報に基づく自己監督は、言語モデルの一般化を改善することが示されている。
本研究では,言語モデルに適用可能な合成データを生成するための知識サンプリング戦略とサイズの影響について検討する。
論文 参考訳(メタデータ) (2022-05-21T19:49:04Z) - Improving Classifier Training Efficiency for Automatic Cyberbullying
Detection with Feature Density [58.64907136562178]
言語支援の異なる特徴前処理手法を用いて特徴密度(FD)の有効性を検討した。
データセットの複雑さを推定することで、必要な実験の数を削減できると仮定する。
データセットの言語的複雑さの違いにより、言語的に支援された単語前処理の有効性を議論することが可能になる。
論文 参考訳(メタデータ) (2021-11-02T15:48:28Z) - Interpretable Multi-dataset Evaluation for Named Entity Recognition [110.64368106131062]
本稿では,名前付きエンティティ認識(NER)タスクに対する一般的な評価手法を提案する。
提案手法は,モデルとデータセットの違いと,それらの間の相互作用を解釈することを可能にする。
分析ツールを利用可能にすることで、将来の研究者が同様の分析を実行し、この分野の進歩を促進することができる。
論文 参考訳(メタデータ) (2020-11-13T10:53:27Z) - Category-Learning with Context-Augmented Autoencoder [63.05016513788047]
実世界のデータの解釈可能な非冗長表現を見つけることは、機械学習の鍵となる問題の一つである。
本稿では,オートエンコーダのトレーニングにデータ拡張を利用する新しい手法を提案する。
このような方法で変分オートエンコーダを訓練し、補助ネットワークによって変換結果を予測できるようにする。
論文 参考訳(メタデータ) (2020-10-10T14:04:44Z) - Deducing neighborhoods of classes from a fitted model [68.8204255655161]
本稿では,新しいタイプの解釈可能な機械学習手法を提案する。
量子シフトを用いた分類モデルでは、特徴空間の予測クラスへの分割を理解するのに役立ちます。
基本的に、実際のデータポイント(または特定の関心点)を使用し、特定の特徴をわずかに引き上げたり減少させたりした後の予測の変化を観察する。
論文 参考訳(メタデータ) (2020-09-11T16:35:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。