論文の概要: On Interpretability and Similarity in Concept-Based Machine Learning
- arxiv url: http://arxiv.org/abs/2102.12723v1
- Date: Thu, 25 Feb 2021 07:57:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-26 17:38:16.438682
- Title: On Interpretability and Similarity in Concept-Based Machine Learning
- Title(参考訳): 概念ベース機械学習における解釈可能性と類似性について
- Authors: L\'eonard Kwuida and Dmitry I. Ignatov
- Abstract要約: 本稿では,協調ゲーム理論の概念を用いて,概念ベース機械学習における分類・クラスタリングプロセスにおける個々の属性の寄与を評価する方法について論じる。
第3の質問に対処するために、大きなコンテキストにおける類似性を用いて属性数を減らす方法を提案する。
- 参考スコア(独自算出の注目度): 2.3986080077861787
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine Learning (ML) provides important techniques for classification and
predictions. Most of these are black-box models for users and do not provide
decision-makers with an explanation. For the sake of transparency or more
validity of decisions, the need to develop explainable/interpretable ML-methods
is gaining more and more importance. Certain questions need to be addressed:
How does an ML procedure derive the class for a particular entity? Why does a
particular clustering emerge from a particular unsupervised ML procedure? What
can we do if the number of attributes is very large? What are the possible
reasons for the mistakes for concrete cases and models?
For binary attributes, Formal Concept Analysis (FCA) offers techniques in
terms of intents of formal concepts, and thus provides plausible reasons for
model prediction. However, from the interpretable machine learning viewpoint,
we still need to provide decision-makers with the importance of individual
attributes to the classification of a particular object, which may facilitate
explanations by experts in various domains with high-cost errors like medicine
or finance.
We discuss how notions from cooperative game theory can be used to assess the
contribution of individual attributes in classification and clustering
processes in concept-based machine learning. To address the 3rd question, we
present some ideas on how to reduce the number of attributes using similarities
in large contexts.
- Abstract(参考訳): 機械学習(ML)は分類と予測に重要な技術を提供します。
それらの多くはユーザのためのブラックボックスモデルであり、意思決定者に説明を与えていない。
透明性や意思決定の妥当性を高めるために、説明可能/解釈可能なMLメソッドを開発する必要性がますます重要になっています。
MLプロシージャは、特定のエンティティのクラスをどのように導出しますか?
なぜ特定のクラスタリングが、特定の教師なしMLプロシージャから現れるのか?
属性の数が非常に多い場合、何ができますか?
具体的なケースやモデルの間違いの原因は何ですか?
二項属性に対して、形式概念解析(FCA)は形式概念の意図の観点から技術を提供し、モデル予測のもっともらしい理由を提供する。
しかし、解釈可能な機械学習の観点からは、特定の対象の分類における個々の属性の重要性を意思決定者に提供する必要がある。
本稿では,協調ゲーム理論の概念を用いて,概念ベース機械学習における分類・クラスタリングプロセスにおける個々の属性の寄与を評価する方法について論じる。
第3の質問に対処するために、大きなコンテキストにおける類似性を用いて属性数を減らす方法を提案する。
関連論文リスト
- Even-if Explanations: Formal Foundations, Priorities and Complexity [18.126159829450028]
線形モデルとツリーモデルの両方がニューラルネットワークよりも厳密に解釈可能であることを示す。
ユーザが好みに基づいて説明をパーソナライズすることのできる、嗜好に基づくフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-17T11:38:58Z) - Pyreal: A Framework for Interpretable ML Explanations [51.14710806705126]
Pyrealは、さまざまな解釈可能な機械学習説明を生成するシステムである。
Pyrealは、モデルによって期待される機能空間、関連する説明アルゴリズム、および人間のユーザ間でデータと説明を変換する。
我々の研究は、Pyrealが既存のシステムよりも有用な説明を生成することを示した。
論文 参考訳(メタデータ) (2023-12-20T15:04:52Z) - What Makes a Good Explanation?: A Harmonized View of Properties of Explanations [22.752085594102777]
解釈可能性(Interpretability)は、機械学習(ML)モデルの側面を検証する手段を提供する。
異なる文脈は異なる性質を持つ説明を必要とする。
説明の性質に関しては標準化の欠如がある。
論文 参考訳(メタデータ) (2022-11-10T16:04:28Z) - Feature Necessity & Relevancy in ML Classifier Explanations [5.232306238197686]
機械学習(ML)モデルと予測が与えられた場合、説明は予測に十分な機能のセットとして定義することができる。
また、ある説明においてセンシティブな特徴が生じるのか、またはすべての説明において興味のない特徴が生じる必要があるのかを理解することも重要である。
論文 参考訳(メタデータ) (2022-10-27T12:12:45Z) - Learn to Explain: Multimodal Reasoning via Thought Chains for Science
Question Answering [124.16250115608604]
本稿では,SQA(Science Question Answering)について紹介する。SQA(Science Question Answering)は,21万のマルチモーダルな複数選択質問と多様な科学トピックと,それに対応する講義や説明による回答の注釈からなる新しいベンチマークである。
また,SQAでは,数ショットのGPT-3では1.20%,微調整のUnifiedQAでは3.99%の改善が見られた。
我々の分析は、人間に似た言語モデルは、より少ないデータから学習し、わずか40%のデータで同じパフォーマンスを達成するのに、説明の恩恵を受けることを示している。
論文 参考訳(メタデータ) (2022-09-20T07:04:24Z) - An Additive Instance-Wise Approach to Multi-class Model Interpretation [53.87578024052922]
解釈可能な機械学習は、ブラックボックスシステムの特定の予測を駆動する要因に関する洞察を提供する。
既存の手法は主に、局所的な加法的あるいはインスタンス的なアプローチに従う説明的入力特徴の選択に重点を置いている。
本研究は,両手法の長所を生かし,複数の対象クラスに対する局所的な説明を同時に学習するためのグローバルフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-07T06:50:27Z) - The Need for Interpretable Features: Motivation and Taxonomy [69.07189753428553]
我々は、「解釈可能な特徴」という用語は、機械学習の説明の有用性に影響を与える機能の全範囲を捉えるのに十分な具体的あるいは詳細ではないと主張している。
本稿では,(1)解釈可能な機能空間と呼ぶもの,あるいはドメインの専門家が現実の行動を取る上で有用な機能の現状に,より注意を払わなければならない,という3つの重要な教訓を論じる。
論文 参考訳(メタデータ) (2022-02-23T19:19:14Z) - Contrastive Explanations for Model Interpretability [77.92370750072831]
分類モデルの対照的説明を生成する手法を提案する。
本手法は潜在空間へのモデル表現の投影に基づいている。
本研究は,モデル決定のより正確できめ細かな解釈性を提供するためのラベルコントラスト的説明の能力に光を当てた。
論文 参考訳(メタデータ) (2021-03-02T00:36:45Z) - Explainable Image Classification with Evidence Counterfactual [0.0]
画像分類のためのモデルに依存しないインスタンスレベルの説明法としてSEDCを導入する。
ある画像に対して、SEDCは、削除された場合、分類を変更する小さなセグメントの集合を検索する。
我々は,SEDC(-T) と LRP, LIME, SHAP などの特徴重要度評価手法を比較し, 上記の重要度ランキング問題にどう対処するかを述べる。
論文 参考訳(メタデータ) (2020-04-16T08:02:48Z) - An Information-Theoretic Approach to Personalized Explainable Machine
Learning [92.53970625312665]
本稿では,予測とユーザ知識のための簡易確率モデルを提案する。
説明と予測の間の条件付き相互情報による説明の効果を定量化する。
論文 参考訳(メタデータ) (2020-03-01T13:06:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。