論文の概要: Do intermediate feature coalitions aid explainability of black-box
models?
- arxiv url: http://arxiv.org/abs/2303.11920v2
- Date: Fri, 2 Jun 2023 10:15:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-05 19:49:15.878431
- Title: Do intermediate feature coalitions aid explainability of black-box
models?
- Title(参考訳): 中間特徴連立はブラックボックスモデルの説明可能性に役立つか?
- Authors: Minal Suresh Patil and Kary Fr\"amling
- Abstract要約: この研究は、ブラックボックスモデルの説明可能性を支援するため、レベル構造に基づく中間概念の概念を導入する。
実際の自動車モデルとタイタニックデータセットの例で、このアプローチのユーザビリティを説明します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work introduces the notion of intermediate concepts based on levels
structure to aid explainability for black-box models. The levels structure is a
hierarchical structure in which each level corresponds to features of a dataset
(i.e., a player-set partition). The level of coarseness increases from the
trivial set, which only comprises singletons, to the set, which only contains
the grand coalition. In addition, it is possible to establish meronomies, i.e.,
part-whole relationships, via a domain expert that can be utilised to generate
explanations at an abstract level. We illustrate the usability of this approach
in a real-world car model example and the Titanic dataset, where intermediate
concepts aid in explainability at different levels of abstraction.
- Abstract(参考訳): この研究は、ブラックボックスモデルの説明可能性を支援するためのレベル構造に基づく中間概念の概念を導入する。
レベル構造は、各レベルがデータセットの特徴に対応する階層構造(つまり、プレーヤセット分割)である。
粗さのレベルは、シングルトンのみからなる自明な集合から、大連立のみを含む集合へと増加する。
さらに、抽象レベルで説明を生成するために使用可能なドメインエキスパートを通じて、部分的関係、すなわち部分的関係を確立することが可能である。
実世界の自動車モデルとタイタニックデータセットにおいて、このアプローチのユーザビリティについて説明する。
関連論文リスト
- DiConStruct: Causal Concept-based Explanations through Black-Box
Distillation [9.735426765564474]
本稿では,概念ベースと因果性の両方を考慮した説明手法であるDiConStructを提案する。
本報告では, ブラックボックス機械学習モデルに対する蒸留モデルとして, その予測を近似し, それぞれの説明を生成する。
論文 参考訳(メタデータ) (2024-01-16T17:54:02Z) - Counterfactual Explanations for Graph Classification Through the Lenses
of Density [19.53018353016675]
グラフ分類器のインスタンスレベルの反実例記述を生成するための一般密度に基づく反実例探索フレームワークを定義する。
この一般的なフレームワークでは,三角形の開きあるいは閉きによる反実数グラフの探索法と,最大傾きによって駆動される方法の2つの具体的インスタンス化を示す。
提案手法の有効性を7つの脳ネットワークデータセットで評価し, 広く利用されている指標に基づいて生成した偽事実を比較検討した。
論文 参考訳(メタデータ) (2023-07-27T13:28:18Z) - A Recursive Bateson-Inspired Model for the Generation of Semantic Formal
Concepts from Spatial Sensory Data [77.34726150561087]
本稿では,複雑な感覚データから階層構造を生成するための記号のみの手法を提案する。
このアプローチは、概念や概念の創始の鍵としてのバテソンの差異の概念に基づいている。
このモデルは、トレーニングなしでかなりリッチだが人間に読まれる概念表現を生成することができる。
論文 参考訳(メタデータ) (2023-07-16T15:59:13Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Structure-CLIP: Towards Scene Graph Knowledge to Enhance Multi-modal
Structured Representations [70.41385310930846]
マルチモーダルな構造表現を強化するためのエンドツーエンドフレームワークであるStructure-CLIPを提案する。
シーングラフを用いてセマンティックなネガティブな例の構築をガイドし、その結果、構造化された表現の学習に重点を置いている。
知識エンハンス(KEE)は、SGKを入力として活用し、構造化表現をさらに強化するために提案される。
論文 参考訳(メタデータ) (2023-05-06T03:57:05Z) - Composer: Creative and Controllable Image Synthesis with Composable
Conditions [57.78533372393828]
ビッグデータで学んだ最近の大規模な生成モデルは、驚くべき画像を合成できるが、制御性は限られている。
この研究は、合成品質とモデルの創造性を維持しつつ、空間配置やパレットのような出力画像の柔軟な制御を可能にする新しい世代パラダイムを提供する。
論文 参考訳(メタデータ) (2023-02-20T05:48:41Z) - Automatic Concept Extraction for Concept Bottleneck-based Video
Classification [58.11884357803544]
本稿では,概念に基づくビデオ分類に必要かつ十分な概念抽象セットを厳格に構成する概念発見抽出モジュールを提案する。
提案手法は,自然言語における概念概念の抽象概念を応用し,複雑なタスクに概念ボトルネック法を一般化する。
論文 参考訳(メタデータ) (2022-06-21T06:22:35Z) - ELUDE: Generating interpretable explanations via a decomposition into
labelled and unlabelled features [23.384134043048807]
モデルの予測を2つの部分に分解する説明フレームワークを開発する。
後者を識別することで、モデルの"説明できない"部分を分析することができます。
また,同機能領域で訓練された複数のモデルに対して,非競合機能セットが一般化可能であることを示す。
論文 参考訳(メタデータ) (2022-06-15T17:36:55Z) - Partial Order in Chaos: Consensus on Feature Attributions in the
Rashomon Set [50.67431815647126]
ポストホックなグローバル/ローカルな特徴属性法は、機械学習モデルを理解するために徐々に採用されている。
この手法により局所的・言語的特徴の半順序が生じることを示す。
これらの部分的な順序に現れる特徴間の関係は、既存のアプローチによって提供されたランクにも当てはまることを示す。
論文 参考訳(メタデータ) (2021-10-26T02:53:14Z) - Contextuality in the Bundle Approach, n-Contextuality, and the Role of Holonomy [0.0]
文脈性(Contextuality)は、たとえ局所的な合意があるとしても、モデル全体の一貫した記述を構築することができないと理解することができる。
バンドルアプローチでコンテキスト性を記述することができ、シナリオは単純複合体として表現される。
我々は,n-contextualityと呼ばれる階層を導入し,シナリオのトポロジに対するモデルの文脈的振る舞いの依存性を探索する。
論文 参考訳(メタデータ) (2021-05-28T22:54:05Z) - Model Agnostic Multilevel Explanations [31.831973884850147]
本稿では,典型的な局所的説明可能性法を前提として,マルチレベル説明木を構築するメタメソッドを提案する。
この木の葉は局所的な説明に対応し、根は大域的な説明に対応し、中間レベルは群データポイントの説明に対応する。
このようなマルチレベル構造は,データセット全体を特徴付ける説明をほとんど得られない,効果的なコミュニケーション形態でもある,と我々は主張する。
論文 参考訳(メタデータ) (2020-03-12T20:18:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。