論文の概要: Variance Tolerance Factors For Interpreting Neural Networks
- arxiv url: http://arxiv.org/abs/2209.13858v1
- Date: Wed, 28 Sep 2022 06:30:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-29 18:13:55.761666
- Title: Variance Tolerance Factors For Interpreting Neural Networks
- Title(参考訳): ニューラルネットワークの解釈における可変許容因子
- Authors: Sichao Li, Amanda Barnard
- Abstract要約: 本稿では,特徴量の重要性をランク付けしてニューラルネットワークを解釈するための分散耐性因子(VTF)を定義する理論を提案する。
VTFに基づく2つの特徴重要ランキング法と特徴選択法を作成する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Black box models only provide results for deep learning tasks and lack
informative details about how these results were obtained. In this paper, we
propose a general theory that defines a variance tolerance factor (VTF) to
interpret the neural networks by ranking the importance of features and
constructing a novel architecture consisting of a base model and feature model
to demonstrate its utility. Two feature importance ranking methods and a
feature selection method based on the VTF are created. A thorough evaluation on
synthetic, benchmark, and real datasets is provided.
- Abstract(参考訳): ブラックボックスモデルは、ディープラーニングタスクに対してのみ結果を提供し、これらの結果の取得方法に関する情報的詳細を欠いている。
本稿では,特徴の重要性をランク付けしてニューラルネットワークを解釈するための分散耐性因子(distribution tolerance factor, vtf)を定義し,その有用性を示すためのベースモデルと特徴モデルからなる新しいアーキテクチャを構築する一般理論を提案する。
2つの特徴重要度ランキング方法と、vtfに基づく特徴選択方法が作成される。
合成、ベンチマーク、および実際のデータセットに関する徹底的な評価が提供される。
関連論文リスト
- The Importance of Model Inspection for Better Understanding Performance Characteristics of Graph Neural Networks [15.569758991934934]
脳形状分類タスクに適用したグラフニューラルネットワークの特徴学習特性に対するモデル選択の影響について検討する。
モデルの異なるレイヤに機能の埋め込みを組み込むことで、かなりの違いが見つかります。
論文 参考訳(メタデータ) (2024-05-02T13:26:18Z) - Causal Analysis for Robust Interpretability of Neural Networks [0.2519906683279152]
我々は、事前学習されたニューラルネットワークの因果効果を捉えるための頑健な介入に基づく手法を開発した。
分類タスクで訓練された視覚モデルに本手法を適用した。
論文 参考訳(メタデータ) (2023-05-15T18:37:24Z) - Learning Disentangled Representations for Natural Language Definitions [0.0]
テキストデータの連続的な構文的・意味的規則性は、構造的バイアスと生成的要因の両方をモデルに提供するのに有効である、と我々は主張する。
本研究では,文型,定義文の表現的・意味的に密接なカテゴリに存在する意味的構造を利用して,不整合表現を学習するための変分オートエンコーダを訓練する。
論文 参考訳(メタデータ) (2022-09-22T14:31:55Z) - On the Generalization and Adaption Performance of Causal Models [99.64022680811281]
異なる因果発見は、データ生成プロセスを一連のモジュールに分解するために提案されている。
このようなモジュラニューラル因果モデルの一般化と適応性能について検討する。
我々の分析では、モジュラーニューラル因果モデルが、低データレギュレーションにおけるゼロおよび少数ショットの適応において、他のモデルよりも優れていることを示している。
論文 参考訳(メタデータ) (2022-06-09T17:12:32Z) - Analyzing the Effects of Handling Data Imbalance on Learned Features
from Medical Images by Looking Into the Models [50.537859423741644]
不均衡なデータセットでモデルをトレーニングすることは、学習問題にユニークな課題をもたらす可能性がある。
ニューラルネットワークの内部ユニットを深く調べて、データの不均衡処理が学習した機能にどのように影響するかを観察します。
論文 参考訳(メタデータ) (2022-04-04T09:38:38Z) - A Deep Convolutional Neural Networks Based Multi-Task Ensemble Model for
Aspect and Polarity Classification in Persian Reviews [0.0]
畳み込みニューラルネットワーク(CNN)に基づくマルチタスク学習モデルを提案する。
モデルのみを作成することは、最高の予測を提供しておらず、バイアスや高い分散のようなエラーにつながる可能性がある。
本稿では、ペルシャ語レビューにおける感情分析を強化するために、マルチタスク深層畳み込みニューラルネットワークのアンサンブルに基づくモデルを作成する。
論文 参考訳(メタデータ) (2022-01-17T09:54:35Z) - Convolutional Motif Kernel Networks [1.104960878651584]
我々のモデルは、小さなデータセットでしっかりと学習でき、関連する医療予測タスクで最先端のパフォーマンスを達成できることを示す。
提案手法はDNAおよびタンパク質配列に利用することができる。
論文 参考訳(メタデータ) (2021-11-03T15:06:09Z) - Towards Open-World Feature Extrapolation: An Inductive Graph Learning
Approach [80.8446673089281]
グラフ表現と学習を伴う新しい学習パラダイムを提案する。
本フレームワークは,1) 下位モデルとしてのバックボーンネットワーク(フィードフォワードニューラルネットなど)が,予測ラベルの入力および出力として機能を取り,2) 上位モデルとしてのグラフニューラルネットワークが,観測データから構築された特徴データグラフをメッセージパッシングすることで,新機能の埋め込みを外挿することを学ぶ。
論文 参考訳(メタデータ) (2021-10-09T09:02:45Z) - The Neural Coding Framework for Learning Generative Models [91.0357317238509]
本稿では,脳の予測処理理論に触発された新しい神経生成モデルを提案する。
同様に、私たちの生成モデルにおける人工ニューロンは、隣接するニューロンが何をするかを予測し、予測が現実にどの程度一致するかに基づいてパラメータを調整します。
論文 参考訳(メタデータ) (2020-12-07T01:20:38Z) - On the Transferability of Adversarial Attacksagainst Neural Text
Classifier [121.6758865857686]
テキスト分類モデルの逆例の転送可能性について検討する。
本稿では,ほとんどすべての既存モデルを騙すために,敵の例を誘導できるモデル群を見つける遺伝的アルゴリズムを提案する。
これらの逆例からモデル診断に使用できる単語置換規則を導出する。
論文 参考訳(メタデータ) (2020-11-17T10:45:05Z) - Rethinking Generalization of Neural Models: A Named Entity Recognition
Case Study [81.11161697133095]
NERタスクをテストベッドとして、異なる視点から既存モデルの一般化挙動を分析する。
詳細な分析による実験は、既存のニューラルNERモデルのボトルネックを診断する。
本論文の副産物として,最近のNER論文の包括的要約を含むプロジェクトをオープンソース化した。
論文 参考訳(メタデータ) (2020-01-12T04:33:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。