論文の概要: Interpretable part-whole hierarchies and conceptual-semantic
relationships in neural networks
- arxiv url: http://arxiv.org/abs/2203.03282v1
- Date: Mon, 7 Mar 2022 10:56:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-08 23:08:36.414385
- Title: Interpretable part-whole hierarchies and conceptual-semantic
relationships in neural networks
- Title(参考訳): ニューラルネットワークにおける解釈可能な部分階層構造と概念論的関係
- Authors: Nicola Garau, Niccol\`o Bisagno, Zeno Sambugaro and Nicola Conci
- Abstract要約: 本稿では、視覚的手がかりから部分全体階層を表現できるフレームワークであるAgglomeratorについて述べる。
本研究では,SmallNORB,MNIST,FashionMNIST,CIFAR-10,CIFAR-100などの共通データセットを用いて評価を行った。
- 参考スコア(独自算出の注目度): 4.153804257347222
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks achieve outstanding results in a large variety of tasks,
often outperforming human experts. However, a known limitation of current
neural architectures is the poor accessibility to understand and interpret the
network response to a given input. This is directly related to the huge number
of variables and the associated non-linearities of neural models, which are
often used as black boxes. When it comes to critical applications as autonomous
driving, security and safety, medicine and health, the lack of interpretability
of the network behavior tends to induce skepticism and limited trustworthiness,
despite the accurate performance of such systems in the given task.
Furthermore, a single metric, such as the classification accuracy, provides a
non-exhaustive evaluation of most real-world scenarios. In this paper, we want
to make a step forward towards interpretability in neural networks, providing
new tools to interpret their behavior. We present Agglomerator, a framework
capable of providing a representation of part-whole hierarchies from visual
cues and organizing the input distribution matching the conceptual-semantic
hierarchical structure between classes. We evaluate our method on common
datasets, such as SmallNORB, MNIST, FashionMNIST, CIFAR-10, and CIFAR-100,
providing a more interpretable model than other state-of-the-art approaches.
- Abstract(参考訳): ディープニューラルネットワークは、多くのタスクで優れた結果をもたらし、しばしば人間のエキスパートを上回っています。
しかし、現在のニューラルネットワークアーキテクチャの既知の制限は、与えられた入力に対するネットワーク応答を理解し、解釈するためのアクセシビリティの不足である。
これは、大量の変数と、しばしばブラックボックスとして使用される神経モデルの非線型性に直接関係している。
自律運転、セキュリティ、安全、医療、健康といった重要な応用において、ネットワークの動作の解釈可能性の欠如は、与えられたタスクにおけるシステムの正確な性能にもかかわらず、懐疑的および限定的な信頼性を誘導する傾向がある。
さらに、分類精度のような単一の計量は、実世界のシナリオのほとんどを説明不能に評価する。
本稿では,ニューラルネットワークにおける解釈可能性への一歩を踏み出し,その動作を解釈するための新しいツールを提供したい。
本稿では,視覚情報から部分階層の表現を提供し,クラス間の概念・概念階層構造に適合する入力分布を整理するフレームワークagglomeratorを提案する。
本研究では,SmallNORB,MNIST,FashionMNIST,CIFAR-10,CIFAR-100といった一般的なデータセット上での手法の評価を行った。
関連論文リスト
- DISCOVER: Making Vision Networks Interpretable via Competition and
Dissection [11.028520416752325]
この研究は、ポストホック解釈可能性、特にネットワーク分割に寄与する。
私たちのゴールは、視覚タスクで訓練されたネットワークにおいて、各ニューロンの個々の機能を容易に発見できるフレームワークを提供することです。
論文 参考訳(メタデータ) (2023-10-07T21:57:23Z) - Rank Diminishing in Deep Neural Networks [71.03777954670323]
ニューラルネットワークのランクは、層をまたがる情報を測定する。
これは機械学習の幅広い領域にまたがる重要な構造条件の例である。
しかし、ニューラルネットワークでは、低ランク構造を生み出す固有のメカニズムはあいまいで不明瞭である。
論文 参考訳(メタデータ) (2022-06-13T12:03:32Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - NFT-K: Non-Fungible Tangent Kernels [23.93508901712177]
我々は、ディープニューラルネットワークの各層を個別にモデル化する複数のニューラルネットワークカーネルの組み合わせとして、新しいネットワークを開発する。
2つのデータセット上でこのモデルの解釈可能性を示し、複数のカーネルモデルが層と予測の間の相互作用を解明することを示した。
論文 参考訳(メタデータ) (2021-10-11T00:35:47Z) - Creating Powerful and Interpretable Models withRegression Networks [2.2049183478692584]
本稿では,ニューラルネットワークのパワーと回帰分析の可視性を組み合わせた新しいアーキテクチャRegression Networksを提案する。
これらのモデルが,いくつかのベンチマークデータセット上での解釈可能なモデルの最先端性能を上回ることを実証する。
論文 参考訳(メタデータ) (2021-07-30T03:37:00Z) - FF-NSL: Feed-Forward Neural-Symbolic Learner [70.978007919101]
本稿では,Feed-Forward Neural-Symbolic Learner (FF-NSL) と呼ばれるニューラルシンボリック学習フレームワークを紹介する。
FF-NSLは、ラベル付き非構造化データから解釈可能な仮説を学習するために、Answer Setセマンティクスに基づく最先端のICPシステムとニューラルネットワークを統合する。
論文 参考訳(メタデータ) (2021-06-24T15:38:34Z) - Topological Uncertainty: Monitoring trained neural networks through
persistence of activation graphs [0.9786690381850356]
産業アプリケーションでは、オープンワールド設定から得られるデータは、ネットワークがトレーニングされたベンチマークデータセットと大きく異なる可能性がある。
活性化グラフのトポロジ的特性に基づいて訓練されたニューラルネットワークを監視する手法を開発している。
論文 参考訳(メタデータ) (2021-05-07T14:16:03Z) - Joint Learning of Neural Transfer and Architecture Adaptation for Image
Recognition [77.95361323613147]
現在の最先端の視覚認識システムは、大規模データセット上でニューラルネットワークを事前トレーニングし、より小さなデータセットでネットワーク重みを微調整することに依存している。
本稿では,各ドメインタスクに適応したネットワークアーキテクチャの動的適応と,効率と効率の両面で重みの微調整の利点を実証する。
本手法は,ソースドメインタスクでスーパーネットトレーニングを自己教師付き学習に置き換え,下流タスクで線形評価を行うことにより,教師なしパラダイムに容易に一般化することができる。
論文 参考訳(メタデータ) (2021-03-31T08:15:17Z) - Anomaly Detection on Attributed Networks via Contrastive Self-Supervised
Learning [50.24174211654775]
本論文では,アトリビュートネットワーク上の異常検出のためのコントラスト型自己監視学習フレームワークを提案する。
このフレームワークは、新しいタイプのコントラストインスタンスペアをサンプリングすることで、ネットワークデータからのローカル情報を完全に活用します。
高次元特性と局所構造から情報埋め込みを学習するグラフニューラルネットワークに基づくコントラスト学習モデルを提案する。
論文 参考訳(メタデータ) (2021-02-27T03:17:20Z) - Provably Training Neural Network Classifiers under Fairness Constraints [70.64045590577318]
過パラメータのニューラルネットワークが制約を満たしていることを示す。
公平なニューラルネットワーク分類器を構築する上で重要な要素は、ニューラルネットワークの非応答解析を確立することである。
論文 参考訳(メタデータ) (2020-12-30T18:46:50Z) - Learning for Integer-Constrained Optimization through Neural Networks
with Limited Training [28.588195947764188]
我々は、その構成成分の機能の観点から完全に解釈可能な、対称的で分解されたニューラルネットワーク構造を導入する。
整数制約の根底にあるパターンを活用することで、導入されたニューラルネットワークは、限られたトレーニングでより優れた一般化性能を提供する。
提案手法は, 半分解フレームワークにさらに拡張可能であることを示す。
論文 参考訳(メタデータ) (2020-11-10T21:17:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。