論文の概要: Causal Discovery and Knowledge Injection for Contestable Neural Networks
(with Appendices)
- arxiv url: http://arxiv.org/abs/2205.09787v4
- Date: Tue, 1 Aug 2023 11:21:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-02 11:32:19.364385
- Title: Causal Discovery and Knowledge Injection for Contestable Neural Networks
(with Appendices)
- Title(参考訳): 競合するニューラルネットワークのための因果的発見と知識注入(付録付き)
- Authors: Fabrizio Russo and Francesca Toni
- Abstract要約: 本稿では,ニューラルネットワークを利用したマシンが学習因果グラフの基盤を公開できる双方向インタラクションを提案する。
提案手法は,入力層で最大7倍小さい擬似ネットワークを生成中の予測性能を2.4倍に向上することを示す。
- 参考スコア(独自算出の注目度): 10.616061367794385
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Neural networks have proven to be effective at solving machine learning tasks
but it is unclear whether they learn any relevant causal relationships, while
their black-box nature makes it difficult for modellers to understand and debug
them. We propose a novel method overcoming these issues by allowing a two-way
interaction whereby neural-network-empowered machines can expose the
underpinning learnt causal graphs and humans can contest the machines by
modifying the causal graphs before re-injecting them into the machines. The
learnt models are guaranteed to conform to the graphs and adhere to expert
knowledge, some of which can also be given up-front. By building a window into
the model behaviour and enabling knowledge injection, our method allows
practitioners to debug networks based on the causal structure discovered from
the data and underpinning the predictions. Experiments with real and synthetic
tabular data show that our method improves predictive performance up to 2.4x
while producing parsimonious networks, up to 7x smaller in the input layer,
compared to SOTA regularised networks.
- Abstract(参考訳): ニューラルネットワークは機械学習タスクの解決に効果的であることが証明されているが、関連する因果関係を学ぶかどうかは不明だが、ブラックボックスの性質はモデルラーがそれらを理解しデバッグすることが困難である。
本稿では,ニューラルネットワークを内蔵したマシンが学習した因果グラフを露呈し,機械に再注入する前に因果グラフを修正して機械と競合することを可能にすることによって,これらの問題を克服する新しい手法を提案する。
学習したモデルは、グラフに準拠し、専門家の知識に準拠することが保証されている。
モデル動作にウィンドウを構築し,知識注入を可能にすることにより,データから発見された因果構造に基づいてネットワークをデバッグし,予測の基盤となる。
実および合成表データを用いた実験により,本手法は,soma正規化ネットワークと比較して,入力層が最大7倍小さく,予測性能が2.4倍まで向上することを示した。
関連論文リスト
- Mechanistic Neural Networks for Scientific Machine Learning [58.99592521721158]
我々は、科学における機械学習応用のためのニューラルネットワーク設計であるメカニスティックニューラルネットワークを提案する。
新しいメカニスティックブロックを標準アーキテクチャに組み込んで、微分方程式を表現として明示的に学習する。
我々のアプローチの中心は、線形プログラムを解くために線形ODEを解く技術に着想を得た、新しい線形計画解法(NeuRLP)である。
論文 参考訳(メタデータ) (2024-02-20T15:23:24Z) - A Survey on Knowledge Editing of Neural Networks [43.813073385305806]
最大の人工ニューラルネットワークでさえ間違いを犯し、世界が時間とともに進むにつれて、一度修正された予測が無効になる可能性がある。
知識編集は、訓練済みのターゲットモデルに対する信頼性、データ効率、迅速な変更の実現を目的とした、新しい研究分野として浮上している。
まず、ニューラルネットワークの編集の問題を紹介し、それを共通のフレームワークで形式化し、継続的学習のような悪名高い研究分野と区別する。
論文 参考訳(メタデータ) (2023-10-30T16:29:47Z) - Robust Graph Representation Learning via Predictive Coding [46.22695915912123]
予測符号化は、当初脳の情報処理をモデル化するために開発されたメッセージパッシングフレームワークである。
本研究では,予測符号化のメッセージパス規則に依存するモデルを構築する。
提案したモデルは,帰納的タスクと帰納的タスクの両方において,標準的なモデルに匹敵する性能を示す。
論文 参考訳(メタデータ) (2022-12-09T03:58:22Z) - Graph Neural Networks with Trainable Adjacency Matrices for Fault
Diagnosis on Multivariate Sensor Data [69.25738064847175]
各センサの信号の挙動を別々に検討し,相互の相関関係と隠れ関係を考慮する必要がある。
グラフノードは、異なるセンサーからのデータとして表現することができ、エッジは、これらのデータの影響を互いに表示することができる。
グラフニューラルネットワークのトレーニング中にグラフを構築する方法が提案されている。これにより、センサー間の依存関係が事前に分かっていないデータ上でモデルをトレーニングすることができる。
論文 参考訳(メタデータ) (2022-10-20T11:03:21Z) - EINNs: Epidemiologically-Informed Neural Networks [75.34199997857341]
本稿では,疫病予測のための新しい物理インフォームドニューラルネットワークEINNを紹介する。
メカニスティックモデルによって提供される理論的柔軟性と、AIモデルによって提供されるデータ駆動表現性の両方を活用する方法について検討する。
論文 参考訳(メタデータ) (2022-02-21T18:59:03Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Explainable Adversarial Attacks in Deep Neural Networks Using Activation
Profiles [69.9674326582747]
本稿では,敵対的事例に基づくニューラルネットワークモデルを検討するためのビジュアルフレームワークを提案する。
これらの要素を観察することで、モデル内の悪用領域を素早く特定できることを示す。
論文 参考訳(メタデータ) (2021-03-18T13:04:21Z) - Anomaly Detection on Attributed Networks via Contrastive Self-Supervised
Learning [50.24174211654775]
本論文では,アトリビュートネットワーク上の異常検出のためのコントラスト型自己監視学習フレームワークを提案する。
このフレームワークは、新しいタイプのコントラストインスタンスペアをサンプリングすることで、ネットワークデータからのローカル情報を完全に活用します。
高次元特性と局所構造から情報埋め込みを学習するグラフニューラルネットワークに基づくコントラスト学習モデルを提案する。
論文 参考訳(メタデータ) (2021-02-27T03:17:20Z) - Malicious Network Traffic Detection via Deep Learning: An Information
Theoretic View [0.0]
本研究では,ホメオモルフィズムがマルウェアのトラフィックデータセットの学習表現に与える影響について検討する。
この結果から,学習された表現の詳細と,すべてのパラメータの多様体上で定義された特定の座標系は,関数近似とは全く異なることが示唆された。
論文 参考訳(メタデータ) (2020-09-16T15:37:44Z) - Adaptive Explainable Neural Networks (AxNNs) [8.949704905866888]
我々は、予測性能とモデル解釈可能性の両目標を達成するために、Adaptive Explainable Neural Networks (AxNN) と呼ばれる新しいフレームワークを開発した。
予測性能向上のために,一般化された付加的モデルネットワークと付加的インデックスモデルからなる構造化ニューラルネットワークを構築した。
本稿では,AxNNの結果を主効果と高次相互作用効果に分解する方法を示す。
論文 参考訳(メタデータ) (2020-04-05T23:40:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。