論文の概要: Scaling the Explanation of Multi-Class Bayesian Network Classifiers
- arxiv url: http://arxiv.org/abs/2603.14594v1
- Date: Sun, 15 Mar 2026 20:38:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.908263
- Title: Scaling the Explanation of Multi-Class Bayesian Network Classifiers
- Title(参考訳): マルチクラスベイズ型ネットワーク分類器のスケールアップ
- Authors: Yaofang Zhang, Adnan Darwiche,
- Abstract要約: 本稿では,ベイジアンネットワーク分類器(BNC)をクラス式にコンパイルするアルゴリズムを提案する。
BNCのクラス式をコンパイルする以前の研究と比較して,提案アルゴリズムはコンパイル時間を大幅に改善した。
- 参考スコア(独自算出の注目度): 7.928094304325115
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a new algorithm for compiling Bayesian network classifier (BNC) into class formulas. Class formulas are logical formulas that represent a classifier's input-output behavior, and are crucial in the recent line of work that uses logical reasoning to explain the decisions made by classifiers. Compared to prior work on compiling class formulas of BNCs, our proposed algorithm is not restricted to binary classifiers, shows significant improvement in compilation time, and outputs class formulas as negation normal form (NNF) circuits that are OR-decomposable, which is an important property when computing explanations of classifiers.
- Abstract(参考訳): 本稿では,ベイジアンネットワーク分類器(BNC)をクラス式にコンパイルするアルゴリズムを提案する。
クラス公式は、分類器の入出力動作を表す論理式であり、論理的推論を用いて分類器が行う決定を説明する最近の研究の行において重要である。
BNCのクラス公式をコンパイルする以前の研究と比較して、提案アルゴリズムはバイナリ分類器に制限されず、コンパイル時間を大幅に改善し、クラス公式をOR分解可能な否定正規形(NNF)回路として出力する。
関連論文リスト
- A Hard-to-Beat Baseline for Training-free CLIP-based Adaptation [121.0693322732454]
対照的に、CLIP(Contrastive Language- Image Pretraining)はその目覚ましいゼロショット能力で人気を集めている。
近年の研究では、下流タスクにおけるCLIPの性能を高めるための効率的な微調整手法の開発に焦点が当てられている。
従来のアルゴリズムであるガウス判別分析(GDA)を再検討し,CLIPの下流分類に適用する。
論文 参考訳(メタデータ) (2024-02-06T15:45:27Z) - Explainable AI using expressive Boolean formulas [0.6323908398583082]
我々は,表現力のあるブール式に基づく説明可能なAI(XAI)の解釈可能な機械分類モデルを実装した。
潜在的な応用としては、クレジットスコアリングと医療条件の診断がある。
論文 参考訳(メタデータ) (2023-06-06T19:18:46Z) - Compacting Binary Neural Networks by Sparse Kernel Selection [58.84313343190488]
本稿は,BNNにおけるバイナリカーネルの分散化がほぼ不可能であることを示すものである。
我々は、選択過程をエンドツーエンドに最適化するだけでなく、選択したコードワードの非反復的占有を維持できる置換ストレートスルー推定器(PSTE)を開発した。
実験により,提案手法はモデルサイズとビット幅の計算コストの両方を削減し,同等の予算下での最先端のBNNと比較して精度の向上を実現する。
論文 参考訳(メタデータ) (2023-03-25T13:53:02Z) - Factorizers for Distributed Sparse Block Codes [45.29870215671697]
分散ブロック符号(SBC)を高速かつ高精度に分解する手法を提案する。
我々の反復分解器は、しきい値に基づく非線形活性化、条件付きランダムサンプリング、および $ell_infty$-based similarity metricを導入している。
CIFAR-100, ImageNet-1K, RAVENデータセット上での4つの深層CNNアーキテクチャの実現可能性を示す。
論文 参考訳(メタデータ) (2023-03-24T12:31:48Z) - Efficient Computation of Shap Explanation Scores for Neural Network
Classifiers via Knowledge Compilation [0.0]
効率的なシャップ計算のために、バイナリニューラルネットワークをこれらの回路に変換する方法を示す。
実験の結果からわかるように、パフォーマンスの向上は大きいです。
論文 参考訳(メタデータ) (2023-03-11T23:33:43Z) - On Deciding Feature Membership in Explanations of SDD & Related
Classifiers [0.685316573653194]
この論文は、幅広い分類器のクラスに対してSigmaP$に対して、特徴メンバシップ問題(FMP)が難しいことを示している。
本稿では,SDD(Sentential Decision Diagrams)と他の命題言語に代表される分類器の命題符号化を提案する。
論文 参考訳(メタデータ) (2022-02-15T16:38:53Z) - On the rate of convergence of a classifier based on a Transformer
encoder [55.41148606254641]
最適誤分類確率に対する分類器の誤分類確率の収束率を分析する。
この分類器は,アポテリオリ確率が適切な階層的構成モデルを満たす場合,次元性の呪いを回避することができる。
論文 参考訳(メタデータ) (2021-11-29T14:58:29Z) - Convolutional Dynamic Alignment Networks for Interpretable
Classifications [108.83345790813445]
我々は、畳み込み動的アライメントネットワーク(CoDA-Nets)と呼ばれる新しいニューラルネットワークモデルを紹介する。
コアとなるビルディングブロックは動的アライメントユニット(DAU)で、入力をタスク関連パターンと動的に整合する重みベクトルで線形に変換する。
CoDA-Netsは一連の入力依存線形変換を通じて分類予測をモデル化し、出力を個々の入力コントリビューションに線形分解することができる。
論文 参考訳(メタデータ) (2021-03-31T18:03:53Z) - A Multiple Classifier Approach for Concatenate-Designed Neural Networks [13.017053017670467]
私たちは、ネットワークセット間で生成された特徴を収集する分類器の設計を与えます。
我々はL2正規化法を用いて、Softmax Denseの代わりに分類スコアを得る。
その結果、提案された分類器は実験ケースの精度を向上させることができる。
論文 参考訳(メタデータ) (2021-01-14T04:32:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。