論文の概要: Interpretable part-whole hierarchies and conceptual-semantic
relationships in neural networks
- arxiv url: http://arxiv.org/abs/2203.03282v1
- Date: Mon, 7 Mar 2022 10:56:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-08 23:08:36.414385
- Title: Interpretable part-whole hierarchies and conceptual-semantic
relationships in neural networks
- Title(参考訳): ニューラルネットワークにおける解釈可能な部分階層構造と概念論的関係
- Authors: Nicola Garau, Niccol\`o Bisagno, Zeno Sambugaro and Nicola Conci
- Abstract要約: 本稿では、視覚的手がかりから部分全体階層を表現できるフレームワークであるAgglomeratorについて述べる。
本研究では,SmallNORB,MNIST,FashionMNIST,CIFAR-10,CIFAR-100などの共通データセットを用いて評価を行った。
- 参考スコア(独自算出の注目度): 4.153804257347222
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks achieve outstanding results in a large variety of tasks,
often outperforming human experts. However, a known limitation of current
neural architectures is the poor accessibility to understand and interpret the
network response to a given input. This is directly related to the huge number
of variables and the associated non-linearities of neural models, which are
often used as black boxes. When it comes to critical applications as autonomous
driving, security and safety, medicine and health, the lack of interpretability
of the network behavior tends to induce skepticism and limited trustworthiness,
despite the accurate performance of such systems in the given task.
Furthermore, a single metric, such as the classification accuracy, provides a
non-exhaustive evaluation of most real-world scenarios. In this paper, we want
to make a step forward towards interpretability in neural networks, providing
new tools to interpret their behavior. We present Agglomerator, a framework
capable of providing a representation of part-whole hierarchies from visual
cues and organizing the input distribution matching the conceptual-semantic
hierarchical structure between classes. We evaluate our method on common
datasets, such as SmallNORB, MNIST, FashionMNIST, CIFAR-10, and CIFAR-100,
providing a more interpretable model than other state-of-the-art approaches.
- Abstract(参考訳): ディープニューラルネットワークは、多くのタスクで優れた結果をもたらし、しばしば人間のエキスパートを上回っています。
しかし、現在のニューラルネットワークアーキテクチャの既知の制限は、与えられた入力に対するネットワーク応答を理解し、解釈するためのアクセシビリティの不足である。
これは、大量の変数と、しばしばブラックボックスとして使用される神経モデルの非線型性に直接関係している。
自律運転、セキュリティ、安全、医療、健康といった重要な応用において、ネットワークの動作の解釈可能性の欠如は、与えられたタスクにおけるシステムの正確な性能にもかかわらず、懐疑的および限定的な信頼性を誘導する傾向がある。
さらに、分類精度のような単一の計量は、実世界のシナリオのほとんどを説明不能に評価する。
本稿では,ニューラルネットワークにおける解釈可能性への一歩を踏み出し,その動作を解釈するための新しいツールを提供したい。
本稿では,視覚情報から部分階層の表現を提供し,クラス間の概念・概念階層構造に適合する入力分布を整理するフレームワークagglomeratorを提案する。
本研究では,SmallNORB,MNIST,FashionMNIST,CIFAR-10,CIFAR-100といった一般的なデータセット上での手法の評価を行った。
関連論文リスト
- Identifying Sub-networks in Neural Networks via Functionally Similar Representations [41.028797971427124]
我々は、異なるサブネットワークの存在を調査し、ネットワークの理解を自動化するための一歩を踏み出した。
我々のアプローチは、人間と計算コストを最小限に抑えたニューラルネットワークの振る舞いに関する有意義な洞察を提供する。
論文 参考訳(メタデータ) (2024-10-21T20:19:00Z) - Coding schemes in neural networks learning classification tasks [52.22978725954347]
完全接続型広義ニューラルネットワーク学習タスクについて検討する。
ネットワークが強力なデータ依存機能を取得することを示す。
驚くべきことに、内部表現の性質は神経の非線形性に大きく依存する。
論文 参考訳(メタデータ) (2024-06-24T14:50:05Z) - Towards Scalable and Versatile Weight Space Learning [51.78426981947659]
本稿では,重み空間学習におけるSANEアプローチを紹介する。
ニューラルネットワーク重みのサブセットの逐次処理に向けて,超表現の概念を拡張した。
論文 参考訳(メタデータ) (2024-06-14T13:12:07Z) - Nonlinear classification of neural manifolds with contextual information [6.292933471495322]
多様体容量は、人口幾何学とニューラル多様体の分離性とを結びつける有望な枠組みとして出現している。
本稿では,文脈入力情報を活用することによって,この制限を克服する理論的枠組みを提案する。
我々のフレームワークの表現性の向上は、階層階層の初期段階のディープネットワークにおける表現アンハングメントをキャプチャするが、以前は分析にはアクセスできない。
論文 参考訳(メタデータ) (2024-05-10T23:37:31Z) - DISCOVER: Making Vision Networks Interpretable via Competition and
Dissection [11.028520416752325]
この研究は、ポストホック解釈可能性、特にネットワーク分割に寄与する。
私たちのゴールは、視覚タスクで訓練されたネットワークにおいて、各ニューロンの個々の機能を容易に発見できるフレームワークを提供することです。
論文 参考訳(メタデータ) (2023-10-07T21:57:23Z) - Rank Diminishing in Deep Neural Networks [71.03777954670323]
ニューラルネットワークのランクは、層をまたがる情報を測定する。
これは機械学習の幅広い領域にまたがる重要な構造条件の例である。
しかし、ニューラルネットワークでは、低ランク構造を生み出す固有のメカニズムはあいまいで不明瞭である。
論文 参考訳(メタデータ) (2022-06-13T12:03:32Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - Creating Powerful and Interpretable Models withRegression Networks [2.2049183478692584]
本稿では,ニューラルネットワークのパワーと回帰分析の可視性を組み合わせた新しいアーキテクチャRegression Networksを提案する。
これらのモデルが,いくつかのベンチマークデータセット上での解釈可能なモデルの最先端性能を上回ることを実証する。
論文 参考訳(メタデータ) (2021-07-30T03:37:00Z) - Anomaly Detection on Attributed Networks via Contrastive Self-Supervised
Learning [50.24174211654775]
本論文では,アトリビュートネットワーク上の異常検出のためのコントラスト型自己監視学習フレームワークを提案する。
このフレームワークは、新しいタイプのコントラストインスタンスペアをサンプリングすることで、ネットワークデータからのローカル情報を完全に活用します。
高次元特性と局所構造から情報埋め込みを学習するグラフニューラルネットワークに基づくコントラスト学習モデルを提案する。
論文 参考訳(メタデータ) (2021-02-27T03:17:20Z) - Provably Training Neural Network Classifiers under Fairness Constraints [70.64045590577318]
過パラメータのニューラルネットワークが制約を満たしていることを示す。
公平なニューラルネットワーク分類器を構築する上で重要な要素は、ニューラルネットワークの非応答解析を確立することである。
論文 参考訳(メタデータ) (2020-12-30T18:46:50Z) - Learning for Integer-Constrained Optimization through Neural Networks
with Limited Training [28.588195947764188]
我々は、その構成成分の機能の観点から完全に解釈可能な、対称的で分解されたニューラルネットワーク構造を導入する。
整数制約の根底にあるパターンを活用することで、導入されたニューラルネットワークは、限られたトレーニングでより優れた一般化性能を提供する。
提案手法は, 半分解フレームワークにさらに拡張可能であることを示す。
論文 参考訳(メタデータ) (2020-11-10T21:17:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。