論文の概要: Reconnoitering the class distinguishing abilities of the features, to
know them better
- arxiv url: http://arxiv.org/abs/2211.12771v1
- Date: Wed, 23 Nov 2022 08:39:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 14:21:43.441479
- Title: Reconnoitering the class distinguishing abilities of the features, to
know them better
- Title(参考訳): 特徴の能力を識別するクラスを再検討し、それらをよりよく知る
- Authors: Payel Sadhukhan, Sarbani palit, Kausik Sengupta
- Abstract要約: 説明可能性により、エンドユーザは、機械学習スキームの能力とユーティリティを透過的かつ人間的に参照することができる。
本稿では,これらの特徴をクラスやカテゴリ識別機能に基づいて説明する。
いくつかの実世界のマルチクラスデータセットで実証的に提案手法が与える説明可能性を検証する。
- 参考スコア(独自算出の注目度): 6.026640792312181
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The relevance of machine learning (ML) in our daily lives is closely
intertwined with its explainability. Explainability can allow end-users to have
a transparent and humane reckoning of a ML scheme's capability and utility. It
will also foster the user's confidence in the automated decisions of a system.
Explaining the variables or features to explain a model's decision is a need of
the present times. We could not really find any work, which explains the
features on the basis of their class-distinguishing abilities (specially when
the real world data are mostly of multi-class nature). In any given dataset, a
feature is not equally good at making distinctions between the different
possible categorizations (or classes) of the data points. In this work, we
explain the features on the basis of their class or category-distinguishing
capabilities. We particularly estimate the class-distinguishing capabilities
(scores) of the variables for pair-wise class combinations. We validate the
explainability given by our scheme empirically on several real-world,
multi-class datasets. We further utilize the class-distinguishing scores in a
latent feature context and propose a novel decision making protocol. Another
novelty of this work lies with a \emph{refuse to render decision} option when
the latent variable (of the test point) has a high class-distinguishing
potential for the likely classes.
- Abstract(参考訳): 日常生活における機械学習(ML)の関連性は、その説明可能性と密接に関連している。
説明可能性により、エンドユーザは、MLスキームの能力とユーティリティを透過的で人間的とみなすことができる。
また、システムの自動決定に対するユーザの自信を高める。
モデルの決定を説明するために変数や特徴を説明することは、現在の必要性である。
クラス分け能力(特に実世界のデータがほとんどマルチクラスな性質である場合)に基づいて特徴を説明するような作業は、実際には見つからなかったのです。
任意のデータセットにおいて、ある機能は、データポイントの異なる分類(またはクラス)を区別するのに等しく適していない。
本稿では,それらのクラスやカテゴリ識別機能に基づいて特徴を説明する。
特に、ペアのクラスの組み合わせに対する変数のクラス識別能力(スコア)を推定する。
複数の実世界のマルチクラスデータセット上で経験的に提案手法が与える説明可能性を検証する。
さらに,潜伏特徴の文脈でクラス識別スコアを活用し,新たな意思決定プロトコルを提案する。
この研究のもう1つの目新しさは、潜在変数(テストポイント)が可能性のあるクラスに対して高いクラス分散ポテンシャルを持つ場合、 \emph{refuse to render decision}オプションである。
関連論文リスト
- MT-SLVR: Multi-Task Self-Supervised Learning for Transformation
In(Variant) Representations [2.94944680995069]
本稿では,パラメータ効率のよいマルチタスク型自己教師型フレームワーク(MT-SLVR)を提案する。
我々は,様々な音声領域から抽出された数ショットの分類タスクに対するアプローチを評価し,分類性能の向上を実証した。
論文 参考訳(メタデータ) (2023-05-29T09:10:50Z) - Class-Incremental Learning: A Survey [84.30083092434938]
CIL(Class-Incremental Learning)は、学習者が新しいクラスの知識を段階的に取り入れることを可能にする。
CILは、前者の特徴を壊滅的に忘れる傾向にあり、その性能は劇的に低下する。
ベンチマーク画像分類タスクにおける17の手法の厳密で統一的な評価を行い、異なるアルゴリズムの特徴を明らかにする。
論文 参考訳(メタデータ) (2023-02-07T17:59:05Z) - PERFEX: Classifier Performance Explanations for Trustworthy AI Systems [0.9668407688201357]
説明は、ユーザに対して予測を実行可能なものにする。
しかし、既存の説明方法は通常、個々の予測についてのみ説明を提供する。
本稿では、PERFEX(Performance Explainer)と呼ばれる、トレーニングベース分類器の品質を説明する手法を提案する。
論文 参考訳(メタデータ) (2022-12-12T17:03:09Z) - Equivariance with Learned Canonicalization Functions [77.32483958400282]
正規化を行うために小さなニューラルネットワークを学習することは、事前定義を使用することよりも優れていることを示す。
実験の結果,正準化関数の学習は多くのタスクで同変関数を学習する既存の手法と競合することがわかった。
論文 参考訳(メタデータ) (2022-11-11T21:58:15Z) - Visual Classification via Description from Large Language Models [23.932495654407425]
視覚言語モデル(VLM)は、様々な認識タスクにおいて有望な性能を示す。
本稿では,VLMを用いた分類のための代替フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-13T17:03:46Z) - FRANS: Automatic Feature Extraction for Time Series Forecasting [2.3226893628361682]
ドメイン知識を必要としない静的な機能のための自律的機能検索ネットワークを開発した。
以上の結果から,ほとんどの状況において,我々の特徴が精度の向上につながることが明らかとなった。
論文 参考訳(メタデータ) (2022-09-15T03:14:59Z) - An Additive Instance-Wise Approach to Multi-class Model Interpretation [53.87578024052922]
解釈可能な機械学習は、ブラックボックスシステムの特定の予測を駆動する要因に関する洞察を提供する。
既存の手法は主に、局所的な加法的あるいはインスタンス的なアプローチに従う説明的入力特徴の選択に重点を置いている。
本研究は,両手法の長所を生かし,複数の対象クラスに対する局所的な説明を同時に学習するためのグローバルフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-07T06:50:27Z) - Determination of class-specific variables in nonparametric
multiple-class classification [0.0]
確率に基づく非パラメトリックな多重クラス分類法を提案し、それを個々のクラスに対して高い影響変数を識別する能力と統合する。
提案手法の特性を報告し, 合成データと実データの両方を用いて, 異なる分類条件下での特性を説明する。
論文 参考訳(メタデータ) (2022-05-07T10:08:58Z) - Learning Debiased and Disentangled Representations for Semantic
Segmentation [52.35766945827972]
セマンティックセグメンテーションのためのモデルに依存しない訓練手法を提案する。
各トレーニングイテレーションで特定のクラス情報をランダムに除去することにより、クラス間の機能依存を効果的に削減する。
提案手法で訓練したモデルは,複数のセマンティックセグメンテーションベンチマークにおいて強い結果を示す。
論文 参考訳(メタデータ) (2021-10-31T16:15:09Z) - Multi-Class Classification from Single-Class Data with Confidences [90.48669386745361]
本稿では,損失/モデル/最適化非依存のリスク最小化フレームワークを提案する。
提案手法は, 与えられた信頼度が高ノイズであっても, 簡易な修正でベイズ整合性を示す。
論文 参考訳(メタデータ) (2021-06-16T15:38:13Z) - Quantifying Learnability and Describability of Visual Concepts Emerging
in Representation Learning [91.58529629419135]
我々は、ディープニューラルネットワークによって自動的に発見された視覚的なグルーピングを特徴付ける方法を検討する。
本稿では、任意の画像グループ化の解釈可能性の定量化に使用できる視覚的学習可能性と記述可能性という2つの概念を紹介する。
論文 参考訳(メタデータ) (2020-10-27T18:41:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。