論文の概要: Understanding Neural Network Systems for Image Analysis using Vector
Spaces and Inverse Maps
- arxiv url: http://arxiv.org/abs/2402.00261v1
- Date: Thu, 1 Feb 2024 01:11:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-02 17:02:50.003956
- Title: Understanding Neural Network Systems for Image Analysis using Vector
Spaces and Inverse Maps
- Title(参考訳): ベクトル空間と逆写像を用いた画像解析のためのニューラルネットワークシステム理解
- Authors: Rebecca Pattichis and Marios S. Pattichis
- Abstract要約: 本稿では,信号空間間のマップとしてニューラルネットワーク層をモデル化するためのLinear Algebraの手法を紹介する。
また、インバータブルネットワークの概念や、特定の出力を出力する入力画像の計算アルゴリズムも導入する。
- 参考スコア(独自算出の注目度): 3.069161525997864
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There is strong interest in developing mathematical methods that can be used
to understand complex neural networks used in image analysis. In this paper, we
introduce techniques from Linear Algebra to model neural network layers as maps
between signal spaces. First, we demonstrate how signal spaces can be used to
visualize weight spaces and convolutional layer kernels. We also demonstrate
how residual vector spaces can be used to further visualize information lost at
each layer. Second, we introduce the concept of invertible networks and an
algorithm for computing input images that yield specific outputs. We
demonstrate our approach on two invertible networks and ResNet18.
- Abstract(参考訳): 画像解析に使用される複雑なニューラルネットワークを理解するために使用できる数学的手法の開発には強い関心がある。
本稿では,信号空間間のマップとしてニューラルネットワーク層をモデル化するためのLinear Algebraの手法を紹介する。
まず,信号空間を用いて重み空間や畳み込み層カーネルを可視化する方法を示す。
また,各層で失われた情報をさらに可視化するために,残差ベクトル空間をどのように利用できるかを示す。
次に、インバータブルネットワークの概念と、特定の出力を出力する入力画像の計算アルゴリズムを紹介する。
本稿では,2つの非可逆ネットワークとResNet18について述べる。
関連論文リスト
- Linking in Style: Understanding learned features in deep learning models [0.0]
畳み込みニューラルネットワーク(CNN)は抽象的な特徴を学び、オブジェクト分類を行う。
本稿では,CNNにおける学習特徴を可視化し,体系的に解析する自動手法を提案する。
論文 参考訳(メタデータ) (2024-09-25T12:28:48Z) - Half-Space Feature Learning in Neural Networks [2.3249139042158853]
現在、ニューラルネットワークの特徴学習には2つの極端な視点がある。
どちらの解釈も、新しい観点からは正しいとは考えにくい。
私たちはこの代替解釈を使って、Deep Linearly Gated Network (DLGN)と呼ばれるモデルを動かす。
論文 参考訳(メタデータ) (2024-04-05T12:03:19Z) - Image segmentation with traveling waves in an exactly solvable recurrent
neural network [71.74150501418039]
繰り返しニューラルネットワークは、シーンの構造特性に応じて、画像をグループに効果的に分割できることを示す。
本稿では,このネットワークにおけるオブジェクトセグメンテーションのメカニズムを正確に記述する。
次に、グレースケール画像中の単純な幾何学的対象から自然画像まで、入力をまたいで一般化するオブジェクトセグメンテーションの簡単なアルゴリズムを実証する。
論文 参考訳(メタデータ) (2023-11-28T16:46:44Z) - Graph Neural Networks Provably Benefit from Structural Information: A
Feature Learning Perspective [53.999128831324576]
グラフニューラルネットワーク(GNN)は、グラフ表現学習の先駆けとなった。
本研究では,特徴学習理論の文脈におけるグラフ畳み込みの役割について検討する。
論文 参考訳(メタデータ) (2023-06-24T10:21:11Z) - Convolutional Learning on Multigraphs [153.20329791008095]
我々は、多グラフ上の畳み込み情報処理を開発し、畳み込み多グラフニューラルネットワーク(MGNN)を導入する。
情報拡散の複雑なダイナミクスを多グラフのエッジのクラス間で捉えるために、畳み込み信号処理モデルを定式化する。
我々は,計算複雑性を低減するため,サンプリング手順を含むマルチグラフ学習アーキテクチャを開発した。
導入されたアーキテクチャは、最適な無線リソース割り当てとヘイトスピーチローカライゼーションタスクに適用され、従来のグラフニューラルネットワークよりも優れたパフォーマンスを提供する。
論文 参考訳(メタデータ) (2022-09-23T00:33:04Z) - Neural Networks as Paths through the Space of Representations [5.165741406553346]
有用な表現のレイヤ・バイ・レイヤ構造を理解するための簡単なアイデアを考案する。
我々は、距離表現類似性に関する最近の研究を活用して、この直感的な「距離」の概念を定式化する。
このフレームワークにより、ディープニューラルネットワークによって実装された階層的な計算は、高次元の表現空間におけるパスと見なすことができる。
論文 参考訳(メタデータ) (2022-06-22T11:59:10Z) - FuNNscope: Visual microscope for interactively exploring the loss
landscape of fully connected neural networks [77.34726150561087]
ニューラルネットワークの高次元景観特性を探索する方法を示す。
我々は、小さなニューラルネットワークの観測結果をより複雑なシステムに一般化する。
インタラクティブダッシュボードは、いくつかのアプリケーションネットワークを開放する。
論文 参考訳(メタデータ) (2022-04-09T16:41:53Z) - A singular Riemannian geometry approach to Deep Neural Networks II.
Reconstruction of 1-D equivalence classes [78.120734120667]
入力空間における出力多様体内の点の事前像を構築する。
我々は、n-次元実空間から(n-1)-次元実空間へのニューラルネットワークマップの場合の簡易性に焦点をあてる。
論文 参考訳(メタデータ) (2021-12-17T11:47:45Z) - Semiotic Aggregation in Deep Learning [0.0]
畳み込みニューラルネットワークはニューラルネットワーク層の階層構造を利用する。
セミオティックスの観点からこれらの層の塩分濃度マップを解析する。
得られた知識がどのように神経決定モデルを説明することができるかを示す。
論文 参考訳(メタデータ) (2021-04-22T08:55:54Z) - Quiver Signal Processing (QSP) [145.6921439353007]
キーバー表現に関する信号処理フレームワークの基礎を述べる。
ネットワークにおける異種多次元情報を扱うための信号処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-22T08:40:15Z) - Learning Local Complex Features using Randomized Neural Networks for
Texture Analysis [0.1474723404975345]
テクスチャ解析のための学習手法と複雑ネットワーク(CN)理論を組み合わせた新しい手法を提案する。
この方法はCNの表現能力を利用してテクスチャイメージを有向ネットワークとしてモデル化する。
このニューラルネットワークは、単一の隠蔽層を持ち、高速学習アルゴリズムを使用して、テクスチャのキャラクタリゼーションのためにローカルなCNパターンを学習することができる。
論文 参考訳(メタデータ) (2020-07-10T23:18:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。