論文の概要: InterpretCC: Conditional Computation for Inherently Interpretable Neural
Networks
- arxiv url: http://arxiv.org/abs/2402.02933v1
- Date: Mon, 5 Feb 2024 11:55:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-06 16:35:50.960942
- Title: InterpretCC: Conditional Computation for Inherently Interpretable Neural
Networks
- Title(参考訳): InterpretCC: 独立解釈型ニューラルネットワークの条件計算
- Authors: Vinitra Swamy, Julian Blackwell, Jibril Frej, Martin Jaggi, Tanja
K\"aser
- Abstract要約: 本稿では,人間中心の解釈可能性を保証する,解釈可能なニューラルネットワークのファミリであるInterpretCCを提案する。
我々は、このアイデアを解釈可能なミックス・オブ・エキスパート・モデルに拡張し、人間が興味を持つトピックを指定できるようにします。
- 参考スコア(独自算出の注目度): 33.26876799710216
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Real-world interpretability for neural networks is a tradeoff between three
concerns: 1) it requires humans to trust the explanation approximation (e.g.
post-hoc approaches), 2) it compromises the understandability of the
explanation (e.g. automatically identified feature masks), and 3) it
compromises the model performance (e.g. decision trees). These shortcomings are
unacceptable for human-facing domains, like education, healthcare, or natural
language, which require trustworthy explanations, actionable interpretations,
and accurate predictions. In this work, we present InterpretCC (interpretable
conditional computation), a family of interpretable-by-design neural networks
that guarantee human-centric interpretability while maintaining comparable
performance to state-of-the-art models by adaptively and sparsely activating
features before prediction. We extend this idea into an interpretable
mixture-of-experts model, that allows humans to specify topics of interest,
discretely separates the feature space for each data point into topical
subnetworks, and adaptively and sparsely activates these topical subnetworks.
We demonstrate variations of the InterpretCC architecture for text and tabular
data across several real-world benchmarks: six online education courses, news
classification, breast cancer diagnosis, and review sentiment.
- Abstract(参考訳): ニューラルネットワークの現実世界の解釈性は、3つの懸念のトレードオフである。
1)説明近似(ポストホックアプローチなど)を人間に信頼させる必要がある。
2)説明の理解性を損なう(例えば、自動識別された特徴マスク)。
3) モデルパフォーマンス(例えば決定木)を損なう。
これらの欠点は、信頼できる説明、行動可能な解釈、正確な予測を必要とする、教育、医療、自然言語のような人間向けドメインでは受け入れられない。
本稿では,人間中心の解釈性を保証しつつ,予測前の特徴を適応的かつスパースに活性化することにより,最先端モデルに匹敵する性能を維持しつつ,人間中心の解釈可能性を保証する,解釈可能なニューラルネットワークの一群である interpretcc (interpretable conditional computation) を提案する。
私たちはこのアイデアを、人間が関心のあるトピックを特定するための解釈可能なmixed-of-expertsモデルに拡張し、各データポイントの特徴空間を個別にトピックサブネットワークに分離し、これらのトピックサブネットワークを適応的かつスパースにアクティベートします。
本稿では,6つのオンライン教育コース,ニュース分類,乳がん診断,レビュー感情という,テキストおよび表型データに対するInterpretCCアーキテクチャのバリエーションを実世界のベンチマークで示す。
関連論文リスト
- Agentivit\`a e telicit\`a in GilBERTo: implicazioni cognitive [77.71680953280436]
本研究の目的は,トランスフォーマーに基づくニューラルネットワークモデルが語彙意味論を推論するかどうかを検討することである。
考慮される意味的性質は、テリシティ(定性とも組み合わされる)と作用性である。
論文 参考訳(メタデータ) (2023-07-06T10:52:22Z) - The future of human-centric eXplainable Artificial Intelligence (XAI) is
not post-hoc explanations [0.6445605125467573]
人間中心のXAIにおける現在のアプローチは、単一の説明器に依存する傾向がある。
我々は、ポストホックな説明可能性から解釈可能なニューラルネットワークアーキテクチャの設計に移行することを提案する。
論文 参考訳(メタデータ) (2023-07-01T15:24:47Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Hybrid CNN -Interpreter: Interpret local and global contexts for
CNN-based Models [9.148791330175191]
畳み込みニューラルネットワーク(CNN)モデルでは、さまざまな領域のパフォーマンスが向上している。
解釈可能性の欠如は、AI支援アプリケーションの受け入れとデプロイの運用中の保証と規制の大きな障壁である。
本稿では,新しいCNN-Interpreterを提案する。
局所的解釈可能性に対する層特異的な予測結果を調べるための独自の前方伝播機構
特徴相関とフィルタ重大効果を示す新しい大域的解釈可能性
論文 参考訳(メタデータ) (2022-10-31T22:59:33Z) - Neural Causal Models for Counterfactual Identification and Estimation [62.30444687707919]
本稿では,ニューラルモデルによる反事実文の評価について検討する。
まず、神経因果モデル(NCM)が十分に表現可能であることを示す。
第2に,反事実分布の同時同定と推定を行うアルゴリズムを開発する。
論文 参考訳(メタデータ) (2022-09-30T18:29:09Z) - Interpretable part-whole hierarchies and conceptual-semantic
relationships in neural networks [4.153804257347222]
本稿では、視覚的手がかりから部分全体階層を表現できるフレームワークであるAgglomeratorについて述べる。
本研究では,SmallNORB,MNIST,FashionMNIST,CIFAR-10,CIFAR-100などの共通データセットを用いて評価を行った。
論文 参考訳(メタデータ) (2022-03-07T10:56:13Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - Interpretable Deep Learning: Interpretations, Interpretability,
Trustworthiness, and Beyond [49.93153180169685]
一般に混同される2つの基本的な概念(解釈と解釈可能性)を紹介・明らかにする。
我々は,新しい分類法を提案することにより,異なる視点から,最近のいくつかの解釈アルゴリズムの設計を詳細に述べる。
信頼される」解釈アルゴリズムを用いてモデルの解釈可能性を評価する上での既存の作業をまとめる。
論文 参考訳(メタデータ) (2021-03-19T08:40:30Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - DoLFIn: Distributions over Latent Features for Interpretability [8.807587076209568]
ニューラルネットワークモデルにおける解釈可能性を実現するための新しい戦略を提案する。
我々のアプローチは、確率を中心量として使う成功に基づいている。
DoLFInは解釈可能なソリューションを提供するだけでなく、古典的なCNNやBiLSTMテキスト分類よりも若干優れています。
論文 参考訳(メタデータ) (2020-11-10T18:32:53Z) - Generating Hierarchical Explanations on Text Classification via Feature
Interaction Detection [21.02924712220406]
特徴的相互作用を検出することによって階層的な説明を構築する。
このような説明は、単語とフレーズが階層の異なるレベルでどのように結合されるかを視覚化する。
実験は、モデルに忠実であり、人間に解釈可能な説明を提供する上で、提案手法の有効性を示す。
論文 参考訳(メタデータ) (2020-04-04T20:56:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。