論文の概要: Causal Discovery and Injection for Feed-Forward Neural Networks
- arxiv url: http://arxiv.org/abs/2205.09787v1
- Date: Thu, 19 May 2022 18:21:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-23 12:45:17.564411
- Title: Causal Discovery and Injection for Feed-Forward Neural Networks
- Title(参考訳): フィードフォワードニューラルネットワークのための因果的発見と注入
- Authors: Fabrizio Russo and Francesca Toni
- Abstract要約: ニューラルネットワークは、幅広い問題を解決するのに効果的であることが証明されているが、意味のある因果関係を学ぶかどうかはしばしば不明である。
フィードフォワードニューラルネットワークに(おそらく部分的な)因果グラフの形で知識を注入することで,この問題を克服する新しい手法を提案する。
この知識は、人間とAIのコラボレーションを通じてモデルを改善するために、事前または学習プロセス中に与えられる。
- 参考スコア(独自算出の注目度): 10.616061367794385
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Neural networks have proven to be effective at solving a wide range of
problems but it is often unclear whether they learn any meaningful causal
relationship: this poses a problem for the robustness of neural network models
and their use for high-stakes decisions. We propose a novel method overcoming
this issue by injecting knowledge in the form of (possibly partial) causal
graphs into feed-forward neural networks, so that the learnt model is
guaranteed to conform to the graph, hence adhering to expert knowledge. This
knowledge may be given up-front or during the learning process, to improve the
model through human-AI collaboration. We apply our method to synthetic and real
(tabular) data showing that it is robust against noise and can improve causal
discovery and prediction performance in low data regimes.
- Abstract(参考訳): ニューラルネットワークは、幅広い問題を解決するのに効果的であることが証明されているが、有意義な因果関係を学んでいるかどうかは不明であることが多い。
本稿では,フィードフォワードニューラルネットワークに(おそらく部分的な)因果グラフの形で知識を注入することにより,学習モデルがグラフに準拠することを保証し,専門家の知識に固執することで,この問題を克服する新しい手法を提案する。
この知識は、人間とAIのコラボレーションを通じてモデルを改善するために、事前または学習プロセス中に与えられる。
本手法を合成および実データ(表式)に適用し,ノイズに対するロバスト性を示し,低データ環境における因果発見と予測性能を向上させる。
関連論文リスト
- Mechanistic Neural Networks for Scientific Machine Learning [58.99592521721158]
我々は、科学における機械学習応用のためのニューラルネットワーク設計であるメカニスティックニューラルネットワークを提案する。
新しいメカニスティックブロックを標準アーキテクチャに組み込んで、微分方程式を表現として明示的に学習する。
我々のアプローチの中心は、線形プログラムを解くために線形ODEを解く技術に着想を得た、新しい線形計画解法(NeuRLP)である。
論文 参考訳(メタデータ) (2024-02-20T15:23:24Z) - A Survey on Knowledge Editing of Neural Networks [43.813073385305806]
最大の人工ニューラルネットワークでさえ間違いを犯し、世界が時間とともに進むにつれて、一度修正された予測が無効になる可能性がある。
知識編集は、訓練済みのターゲットモデルに対する信頼性、データ効率、迅速な変更の実現を目的とした、新しい研究分野として浮上している。
まず、ニューラルネットワークの編集の問題を紹介し、それを共通のフレームワークで形式化し、継続的学習のような悪名高い研究分野と区別する。
論文 参考訳(メタデータ) (2023-10-30T16:29:47Z) - Robust Graph Representation Learning via Predictive Coding [46.22695915912123]
予測符号化は、当初脳の情報処理をモデル化するために開発されたメッセージパッシングフレームワークである。
本研究では,予測符号化のメッセージパス規則に依存するモデルを構築する。
提案したモデルは,帰納的タスクと帰納的タスクの両方において,標準的なモデルに匹敵する性能を示す。
論文 参考訳(メタデータ) (2022-12-09T03:58:22Z) - Graph Neural Networks with Trainable Adjacency Matrices for Fault
Diagnosis on Multivariate Sensor Data [69.25738064847175]
各センサの信号の挙動を別々に検討し,相互の相関関係と隠れ関係を考慮する必要がある。
グラフノードは、異なるセンサーからのデータとして表現することができ、エッジは、これらのデータの影響を互いに表示することができる。
グラフニューラルネットワークのトレーニング中にグラフを構築する方法が提案されている。これにより、センサー間の依存関係が事前に分かっていないデータ上でモデルをトレーニングすることができる。
論文 参考訳(メタデータ) (2022-10-20T11:03:21Z) - EINNs: Epidemiologically-Informed Neural Networks [75.34199997857341]
本稿では,疫病予測のための新しい物理インフォームドニューラルネットワークEINNを紹介する。
メカニスティックモデルによって提供される理論的柔軟性と、AIモデルによって提供されるデータ駆動表現性の両方を活用する方法について検討する。
論文 参考訳(メタデータ) (2022-02-21T18:59:03Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Explainable Adversarial Attacks in Deep Neural Networks Using Activation
Profiles [69.9674326582747]
本稿では,敵対的事例に基づくニューラルネットワークモデルを検討するためのビジュアルフレームワークを提案する。
これらの要素を観察することで、モデル内の悪用領域を素早く特定できることを示す。
論文 参考訳(メタデータ) (2021-03-18T13:04:21Z) - Anomaly Detection on Attributed Networks via Contrastive Self-Supervised
Learning [50.24174211654775]
本論文では,アトリビュートネットワーク上の異常検出のためのコントラスト型自己監視学習フレームワークを提案する。
このフレームワークは、新しいタイプのコントラストインスタンスペアをサンプリングすることで、ネットワークデータからのローカル情報を完全に活用します。
高次元特性と局所構造から情報埋め込みを学習するグラフニューラルネットワークに基づくコントラスト学習モデルを提案する。
論文 参考訳(メタデータ) (2021-02-27T03:17:20Z) - Malicious Network Traffic Detection via Deep Learning: An Information
Theoretic View [0.0]
本研究では,ホメオモルフィズムがマルウェアのトラフィックデータセットの学習表現に与える影響について検討する。
この結果から,学習された表現の詳細と,すべてのパラメータの多様体上で定義された特定の座標系は,関数近似とは全く異なることが示唆された。
論文 参考訳(メタデータ) (2020-09-16T15:37:44Z) - Adaptive Explainable Neural Networks (AxNNs) [8.949704905866888]
我々は、予測性能とモデル解釈可能性の両目標を達成するために、Adaptive Explainable Neural Networks (AxNN) と呼ばれる新しいフレームワークを開発した。
予測性能向上のために,一般化された付加的モデルネットワークと付加的インデックスモデルからなる構造化ニューラルネットワークを構築した。
本稿では,AxNNの結果を主効果と高次相互作用効果に分解する方法を示す。
論文 参考訳(メタデータ) (2020-04-05T23:40:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。