論文の概要: Provable concept learning for interpretable predictions using
variational inference
- arxiv url: http://arxiv.org/abs/2204.00492v1
- Date: Fri, 1 Apr 2022 14:51:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-04 16:21:07.243519
- Title: Provable concept learning for interpretable predictions using
variational inference
- Title(参考訳): 変分推論を用いた解釈可能な予測のための確率的概念学習
- Authors: Armeen Taeb, Nicolo Ruggeri, Carina Schnuck, Fanny Yang
- Abstract要約: 安全クリティカルなアプリケーションでは、解釈可能な説明が得られない場合、実践者はニューラルネットワークを信頼することを避けます。
我々は(C)概念(L)アーニングと(P)ディディクション(CLAP)を導出する確率論的モデリングフレームワークを提案する。
本手法は最適な分類精度を保ちながら同定できることを実証する。
- 参考スコア(独自算出の注目度): 7.0349768355860895
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In safety critical applications, practitioners are reluctant to trust neural
networks when no interpretable explanations are available. Many attempts to
provide such explanations revolve around pixel level attributions or use
previously known concepts. In this paper we aim to provide explanations by
provably identifying \emph{high-level, previously unknown concepts}. To this
end, we propose a probabilistic modeling framework to derive (C)oncept
(L)earning and (P)rediction (CLAP) -- a VAE-based classifier that uses visually
interpretable concepts as linear predictors. Assuming that the data generating
mechanism involves predictive concepts, we prove that our method is able to
identify them while attaining optimal classification accuracy. We use synthetic
experiments for validation, and also show that on real-world (PlantVillage and
ChestXRay) datasets, CLAP effectively discovers interpretable factors for
classifying diseases.
- Abstract(参考訳): 安全クリティカルなアプリケーションでは、解釈可能な説明が得られない場合、実践者はニューラルネットワークを信頼しがちである。
このような説明を提供する多くの試みは、ピクセルレベルの属性や、以前に知られていた概念について論じている。
本稿では,<emph{high-level, previously unknown concepts} の同定によって説明することを目的とする。
この目的のために,線形予測器として視覚的に解釈可能な概念を用いるVAEに基づく分類器である(C)oncept (L)earning and (P)rediction (CLAP) を導出する確率論的モデリングフレームワークを提案する。
データ生成機構が予測概念を含むと仮定すると、この手法は最適な分類精度を保ちながらそれらを識別できることを証明できる。
実世界(PlantVillageとChestXRay)のデータセットでは、CLAPが病気を分類するための解釈可能な因子を効果的に発見することを示す。
関連論文リスト
- Discover-then-Name: Task-Agnostic Concept Bottlenecks via Automated Concept Discovery [52.498055901649025]
ディープニューラルネットワークの「ブラックボックス」問題に対処するために、概念ボトルネックモデル(CBM)が提案されている。
本稿では,典型的なパラダイムを逆転させる新しいCBMアプローチであるDiscover-then-Name-CBM(DN-CBM)を提案する。
我々の概念抽出戦略は、下流のタスクに非依存であり、既にそのモデルに知られている概念を使用するため、効率的である。
論文 参考訳(メタデータ) (2024-07-19T17:50:11Z) - ECATS: Explainable-by-design concept-based anomaly detection for time series [0.5956301166481089]
本稿では,概念をSTL(Signal Temporal Logic)公式として表現する概念に基づくニューロシンボリックアーキテクチャであるECATSを提案する。
我々は,局所的な解釈可能性を確保しつつ,優れた分類性能が得られることを示す。
論文 参考訳(メタデータ) (2024-05-17T08:12:53Z) - Conformal Predictions for Probabilistically Robust Scalable Machine Learning Classification [1.757077789361314]
コンフォーマルな予測により、信頼性と堅牢な学習アルゴリズムを定義することができる。
基本的には、アルゴリズムが実際に使われるのに十分であるかどうかを評価する方法である。
本稿では,設計当初から信頼性の高い分類学習フレームワークを定義した。
論文 参考訳(メタデータ) (2024-03-15T14:59:24Z) - Gaussian Mixture Models for Affordance Learning using Bayesian Networks [50.18477618198277]
Affordancesはアクション、オブジェクト、エフェクト間の関係の基本的な記述である。
本稿では,世界を探究し,その感覚経験から自律的にこれらの余裕を学習するエンボディエージェントの問題にアプローチする。
論文 参考訳(メタデータ) (2024-02-08T22:05:45Z) - Prototype-based Aleatoric Uncertainty Quantification for Cross-modal
Retrieval [139.21955930418815]
クロスモーダル検索手法は、共通表現空間を共同学習することにより、視覚と言語モダリティの類似性関係を構築する。
しかし、この予測は、低品質なデータ、例えば、腐敗した画像、速いペースの動画、詳細でないテキストによって引き起こされるアレタリック不確実性のために、しばしば信頼性が低い。
本稿では, 原型に基づくAleatoric Uncertainity Quantification (PAU) フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-29T09:41:19Z) - Statistically Significant Concept-based Explanation of Image Classifiers
via Model Knockoffs [22.576922942465142]
概念に基づく説明は、非関連概念を予測タスクにとって重要であると誤解する偽陽性を引き起こす可能性がある。
深層学習モデルを用いて画像概念を学習し,Knockoffサンプルを用いて予測のための重要な概念を選択する手法を提案する。
論文 参考訳(メタデータ) (2023-05-27T05:40:05Z) - NUQ: Nonparametric Uncertainty Quantification for Deterministic Neural
Networks [151.03112356092575]
本研究では,Nadaraya-Watson の条件付きラベル分布の非パラメトリック推定に基づく分類器の予測の不確かさの測定方法を示す。
種々の実世界の画像データセットにおける不確実性推定タスクにおいて,本手法の強い性能を示す。
論文 参考訳(メタデータ) (2022-02-07T12:30:45Z) - Discriminative Attribution from Counterfactuals [64.94009515033984]
本稿では,特徴属性と反実的説明を組み合わせたニューラルネットワークの解釈可能性について述べる。
本手法は,特徴属性法の性能を客観的に評価するために有効であることを示す。
論文 参考訳(メタデータ) (2021-09-28T00:53:34Z) - FF-NSL: Feed-Forward Neural-Symbolic Learner [70.978007919101]
本稿では,Feed-Forward Neural-Symbolic Learner (FF-NSL) と呼ばれるニューラルシンボリック学習フレームワークを紹介する。
FF-NSLは、ラベル付き非構造化データから解釈可能な仮説を学習するために、Answer Setセマンティクスに基づく最先端のICPシステムとニューラルネットワークを統合する。
論文 参考訳(メタデータ) (2021-06-24T15:38:34Z) - DISSECT: Disentangled Simultaneous Explanations via Concept Traversals [33.65478845353047]
DISSECTは、ディープラーニングモデル推論を説明するための新しいアプローチである。
DISSECTは、分類器の信号から生成モデルを訓練することにより、異なる概念の分類器固有の「名詞」を発見する方法を提供する。
DISSECTは,複数の概念を分離し,共同訓練による推論と結合したCTを生成する。
論文 参考訳(メタデータ) (2021-05-31T17:11:56Z) - Explainable AI for Classification using Probabilistic Logic Inference [9.656846523452502]
説明可能な分類法を提案する。
本手法は,まず学習データから記号的知識ベースを構築し,その知識ベース上で線形プログラミングによる確率的推論を行う。
これは、ある分類を説明として責任を負う決定的な特徴を特定し、アートリー値ベースの手法であるSHAPに類似した結果を生成する。
論文 参考訳(メタデータ) (2020-05-05T11:39:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。