論文の概要: Explaining Deep Tractable Probabilistic Models: The sum-product network
case
- arxiv url: http://arxiv.org/abs/2110.09778v1
- Date: Tue, 19 Oct 2021 07:49:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-20 14:44:12.204728
- Title: Explaining Deep Tractable Probabilistic Models: The sum-product network
case
- Title(参考訳): Deep Tractable Probabilistic Models: the sum-product network case
- Authors: Athresh Karanam, Saurabh Mathur, Predrag Radivojac, Kristian Kersting,
Sriraam Natarajan
- Abstract要約: 本稿では,SPNをCSIツリーに変換する反復アルゴリズムを提案する。
結果のCSI-treeは、ドメインエキスパートに解釈可能であり、説明可能である。
人工的, 標準的, 実世界の臨床データセットに関する実証的な評価は, 結果として得られたモデルが, 性能を損なうことなく, 優れた説明可能性を示すことを示すものである。
- 参考スコア(独自算出の注目度): 27.569979033606952
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the problem of explaining a tractable deep probabilistic model,
the Sum-Product Networks (SPNs).To this effect, we define the notion of a
context-specific independence tree and present an iterative algorithm that
converts an SPN to a CSI-tree. The resulting CSI-tree is both interpretable and
explainable to the domain expert. To further compress the tree, we approximate
the CSIs by fitting a supervised classifier. Our extensive empirical
evaluations on synthetic, standard, and real-world clinical data sets
demonstrate that the resulting models exhibit superior explainability without
loss in performance.
- Abstract(参考訳): 本稿では,確率モデルであるsum-product network (spns) を説明する問題を考える。
本研究では,文脈固有の独立木の概念を定義し,SPNをCSI木に変換する反復アルゴリズムを提案する。
結果のCSIツリーは、ドメインエキスパートに解釈可能かつ説明可能である。
さらに木を圧縮するために、教師付き分類器を装着してCSIを近似する。
人工的, 標準的, 実世界の臨床データセットの広範な評価は, 結果のモデルが性能を損なわずに優れた説明可能性を示すことを示す。
関連論文リスト
- Learning local discrete features in explainable-by-design convolutional neural networks [0.0]
本稿では,側方抑制機構に基づくCNN(Design-by-Design Convolutional Neural Network)を提案する。
このモデルは、残留または高密度のスキップ接続を持つ高精度CNNである予測器で構成されている。
観測を収集し,直接確率を計算することにより,隣接するレベルのモチーフ間の因果関係を説明することができる。
論文 参考訳(メタデータ) (2024-10-31T18:39:41Z) - Estimating Causal Effects from Learned Causal Networks [56.14597641617531]
本稿では、離散可観測変数に対する因果影響クエリに応答する代替パラダイムを提案する。
観測データから直接因果ベイズネットワークとその共起潜伏変数を学習する。
本手法は, 推定手法よりも有効であることを示す。
論文 参考訳(メタデータ) (2024-08-26T08:39:09Z) - Tractable Probabilistic Graph Representation Learning with Graph-Induced
Sum-Product Networks [25.132159381873656]
グラフ表現学習のための新しい確率的フレームワークであるグラフ誘導Sum-Product Networks (GSPNs)を紹介する。
このモデルが持つ競争力は,不足するデータの下での監視シナリオの不足や,一般的なニューラルモデルと比較したグラフ分類に代表される。
論文 参考訳(メタデータ) (2023-05-17T20:02:08Z) - Concept-based Explanations using Non-negative Concept Activation Vectors
and Decision Tree for CNN Models [4.452019519213712]
本稿では、概念に基づく説明書から抽出した概念に基づいて決定木を訓練することで、畳み込みニューラルネットワーク(CNN)モデルの解釈可能性を高めることができるかどうかを評価する。
論文 参考訳(メタデータ) (2022-11-19T21:42:55Z) - ExSpliNet: An interpretable and expressive spline-based neural network [0.3867363075280544]
本稿では,解釈可能な表現型ニューラルネットワークモデルであるExSpliNetを提案する。
我々はモデルを確率論的に解釈し、その普遍近似特性を示す。
論文 参考訳(メタデータ) (2022-05-03T14:06:36Z) - Mitigating Performance Saturation in Neural Marked Point Processes:
Architectures and Loss Functions [50.674773358075015]
本稿では,グラフ畳み込み層のみを利用するGCHPという単純なグラフベースのネットワーク構造を提案する。
我々は,GCHPがトレーニング時間を大幅に短縮し,時間間確率仮定による確率比損失がモデル性能を大幅に改善できることを示した。
論文 参考訳(メタデータ) (2021-07-07T16:59:14Z) - Generative Counterfactuals for Neural Networks via Attribute-Informed
Perturbation [51.29486247405601]
AIP(Attribute-Informed Perturbation)の提案により,生データインスタンスの反事実を生成するフレームワークを設計する。
異なる属性を条件とした生成モデルを利用することで、所望のラベルとの反事実を効果的かつ効率的に得ることができる。
実世界のテキストや画像に対する実験結果から, 設計したフレームワークの有効性, サンプル品質, および効率が示された。
論文 参考訳(メタデータ) (2021-01-18T08:37:13Z) - Structural Causal Models Are (Solvable by) Credal Networks [70.45873402967297]
因果推論は、干潟網の更新のための標準的なアルゴリズムによって得ることができる。
この貢献は, 干潟ネットワークによる構造因果モデルを表現するための体系的なアプローチと見なされるべきである。
実験により, 実規模問題における因果推論には, クレーダルネットワークの近似アルゴリズムがすぐに利用できることがわかった。
論文 参考訳(メタデータ) (2020-08-02T11:19:36Z) - Generalising Recursive Neural Models by Tensor Decomposition [12.069862650316262]
テンソル型定式化を利用した構造文脈のモデルアグリゲーションに対する一般的なアプローチを提案する。
パラメータ空間の大きさの指数関数的成長は、タッカー分解に基づく近似によって制御できることを示す。
これにより、隠れたサイズ、計算複雑性、モデル一般化によって制御される符号化の表現性の間のトレードオフを効果的に制御できる。
論文 参考訳(メタデータ) (2020-06-17T17:28:19Z) - Linguistically Driven Graph Capsule Network for Visual Question
Reasoning [153.76012414126643]
我々は「言語的に駆動されるグラフカプセルネットワーク」と呼ばれる階層的構成推論モデルを提案する。
具体的には,各カプセルを最下層に結合させ,元の質問に1つの単語を埋め込んだ言語的埋め込みを視覚的証拠で橋渡しする。
CLEVRデータセット、CLEVR合成生成テスト、およびFinalQAデータセットの実験は、我々のエンドツーエンドモデルの有効性と構成一般化能力を示す。
論文 参考訳(メタデータ) (2020-03-23T03:34:25Z) - Understanding Generalization in Deep Learning via Tensor Methods [53.808840694241]
圧縮の観点から,ネットワークアーキテクチャと一般化可能性の関係について理解を深める。
本稿では、ニューラルネットワークの圧縮性と一般化性を強く特徴付ける、直感的で、データ依存的で、測定が容易な一連の特性を提案する。
論文 参考訳(メタデータ) (2020-01-14T22:26:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。