論文の概要: Variance Tolerance Factors For Interpreting ALL Neural Networks
- arxiv url: http://arxiv.org/abs/2209.13858v2
- Date: Wed, 17 May 2023 11:40:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-18 20:56:48.764462
- Title: Variance Tolerance Factors For Interpreting ALL Neural Networks
- Title(参考訳): オールニューラルネットワークの解釈における可変許容因子
- Authors: Sichao Li, Amanda Barnard
- Abstract要約: 入力変数が出力とどのように関係しているかを知ることは、予測を実験室に翻訳するのに重要である。
本稿では,影響関数に着想を得た分散耐性因子を定義する一般理論を提案する。
ラーショモン集合における2つの特徴重要ランキング法と,VTFに基づく特徴選択法を作成し,検討した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Black box models only provide results for deep learning tasks, and lack
informative details about how these results were obtained. Knowing how input
variables are related to outputs, in addition to why they are related, can be
critical to translating predictions into laboratory experiments, or defending a
model prediction under scrutiny. In this paper, we propose a general theory
that defines a variance tolerance factor (VTF) inspired by influence function,
to interpret features in the context of black box neural networks by ranking
the importance of features, and construct a novel architecture consisting of a
base model and feature model to explore the feature importance in a Rashomon
set that contains all well-performing neural networks. Two feature importance
ranking methods in the Rashomon set and a feature selection method based on the
VTF are created and explored. A thorough evaluation on synthetic and benchmark
datasets is provided, and the method is applied to two real world examples
predicting the formation of noncrystalline gold nanoparticles and the chemical
toxicity 1793 aromatic compounds exposed to a protozoan ciliate for 40 hours.
- Abstract(参考訳): ブラックボックスモデルは、ディープラーニングタスクに対してのみ結果を提供し、これらの結果の取得方法に関する情報的詳細を欠いている。
入力変数がアウトプットとどのように関連しているかを知ることは、その関連理由に加えて、予測を実験実験に翻訳したり、精査されたモデル予測を擁護する上でも重要である。
本稿では、影響関数にインスパイアされた分散耐性因子(VTF)を定義し、特徴の重要性をランク付けすることでブラックボックスニューラルネットワークの文脈における特徴を解釈し、基礎モデルと特徴モデルからなる新しいアーキテクチャを構築し、全ての優れたニューラルネットワークを含むラショーモン集合の特徴的重要性を探求する一般的な理論を提案する。
ラーショモン集合における2つの特徴重要ランキング法と,VTFに基づく特徴選択法を作成し,検討した。
合成およびベンチマークデータセットの徹底的な評価を行い、非結晶性金ナノ粒子の生成と、プロトゾアンケイ酸塩に40時間曝露した1793の芳香族化合物の化学毒性を予測する2つの実例に適用した。
関連論文リスト
- The Importance of Model Inspection for Better Understanding Performance Characteristics of Graph Neural Networks [15.569758991934934]
脳形状分類タスクに適用したグラフニューラルネットワークの特徴学習特性に対するモデル選択の影響について検討する。
モデルの異なるレイヤに機能の埋め込みを組み込むことで、かなりの違いが見つかります。
論文 参考訳(メタデータ) (2024-05-02T13:26:18Z) - Causal Analysis for Robust Interpretability of Neural Networks [0.2519906683279152]
我々は、事前学習されたニューラルネットワークの因果効果を捉えるための頑健な介入に基づく手法を開発した。
分類タスクで訓練された視覚モデルに本手法を適用した。
論文 参考訳(メタデータ) (2023-05-15T18:37:24Z) - Learning Disentangled Representations for Natural Language Definitions [0.0]
テキストデータの連続的な構文的・意味的規則性は、構造的バイアスと生成的要因の両方をモデルに提供するのに有効である、と我々は主張する。
本研究では,文型,定義文の表現的・意味的に密接なカテゴリに存在する意味的構造を利用して,不整合表現を学習するための変分オートエンコーダを訓練する。
論文 参考訳(メタデータ) (2022-09-22T14:31:55Z) - On the Generalization and Adaption Performance of Causal Models [99.64022680811281]
異なる因果発見は、データ生成プロセスを一連のモジュールに分解するために提案されている。
このようなモジュラニューラル因果モデルの一般化と適応性能について検討する。
我々の分析では、モジュラーニューラル因果モデルが、低データレギュレーションにおけるゼロおよび少数ショットの適応において、他のモデルよりも優れていることを示している。
論文 参考訳(メタデータ) (2022-06-09T17:12:32Z) - Analyzing the Effects of Handling Data Imbalance on Learned Features
from Medical Images by Looking Into the Models [50.537859423741644]
不均衡なデータセットでモデルをトレーニングすることは、学習問題にユニークな課題をもたらす可能性がある。
ニューラルネットワークの内部ユニットを深く調べて、データの不均衡処理が学習した機能にどのように影響するかを観察します。
論文 参考訳(メタデータ) (2022-04-04T09:38:38Z) - A Deep Convolutional Neural Networks Based Multi-Task Ensemble Model for
Aspect and Polarity Classification in Persian Reviews [0.0]
畳み込みニューラルネットワーク(CNN)に基づくマルチタスク学習モデルを提案する。
モデルのみを作成することは、最高の予測を提供しておらず、バイアスや高い分散のようなエラーにつながる可能性がある。
本稿では、ペルシャ語レビューにおける感情分析を強化するために、マルチタスク深層畳み込みニューラルネットワークのアンサンブルに基づくモデルを作成する。
論文 参考訳(メタデータ) (2022-01-17T09:54:35Z) - Convolutional Motif Kernel Networks [1.104960878651584]
我々のモデルは、小さなデータセットでしっかりと学習でき、関連する医療予測タスクで最先端のパフォーマンスを達成できることを示す。
提案手法はDNAおよびタンパク質配列に利用することができる。
論文 参考訳(メタデータ) (2021-11-03T15:06:09Z) - Towards Open-World Feature Extrapolation: An Inductive Graph Learning
Approach [80.8446673089281]
グラフ表現と学習を伴う新しい学習パラダイムを提案する。
本フレームワークは,1) 下位モデルとしてのバックボーンネットワーク(フィードフォワードニューラルネットなど)が,予測ラベルの入力および出力として機能を取り,2) 上位モデルとしてのグラフニューラルネットワークが,観測データから構築された特徴データグラフをメッセージパッシングすることで,新機能の埋め込みを外挿することを学ぶ。
論文 参考訳(メタデータ) (2021-10-09T09:02:45Z) - The Neural Coding Framework for Learning Generative Models [91.0357317238509]
本稿では,脳の予測処理理論に触発された新しい神経生成モデルを提案する。
同様に、私たちの生成モデルにおける人工ニューロンは、隣接するニューロンが何をするかを予測し、予測が現実にどの程度一致するかに基づいてパラメータを調整します。
論文 参考訳(メタデータ) (2020-12-07T01:20:38Z) - On the Transferability of Adversarial Attacksagainst Neural Text
Classifier [121.6758865857686]
テキスト分類モデルの逆例の転送可能性について検討する。
本稿では,ほとんどすべての既存モデルを騙すために,敵の例を誘導できるモデル群を見つける遺伝的アルゴリズムを提案する。
これらの逆例からモデル診断に使用できる単語置換規則を導出する。
論文 参考訳(メタデータ) (2020-11-17T10:45:05Z) - Rethinking Generalization of Neural Models: A Named Entity Recognition
Case Study [81.11161697133095]
NERタスクをテストベッドとして、異なる視点から既存モデルの一般化挙動を分析する。
詳細な分析による実験は、既存のニューラルNERモデルのボトルネックを診断する。
本論文の副産物として,最近のNER論文の包括的要約を含むプロジェクトをオープンソース化した。
論文 参考訳(メタデータ) (2020-01-12T04:33:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。