論文の概要: Semiotic Aggregation in Deep Learning
- arxiv url: http://arxiv.org/abs/2104.10931v1
- Date: Thu, 22 Apr 2021 08:55:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-23 20:24:54.953520
- Title: Semiotic Aggregation in Deep Learning
- Title(参考訳): 深層学習におけるセミオティック・アグリゲーション
- Authors: Bogdan Musat, Razvan Andonie
- Abstract要約: 畳み込みニューラルネットワークはニューラルネットワーク層の階層構造を利用する。
セミオティックスの観点からこれらの層の塩分濃度マップを解析する。
得られた知識がどのように神経決定モデルを説明することができるかを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Convolutional neural networks utilize a hierarchy of neural network layers.
The statistical aspects of information concentration in successive layers can
bring an insight into the feature abstraction process. We analyze the saliency
maps of these layers from the perspective of semiotics, also known as the study
of signs and sign-using behavior. In computational semiotics, this aggregation
operation (known as superization) is accompanied by a decrease of spatial
entropy: signs are aggregated into supersign. Using spatial entropy, we compute
the information content of the saliency maps and study the superization
processes which take place between successive layers of the network. In our
experiments, we visualize the superization process and show how the obtained
knowledge can be used to explain the neural decision model. In addition, we
attempt to optimize the architecture of the neural model employing a semiotic
greedy technique. To the extent of our knowledge, this is the first application
of computational semiotics in the analysis and interpretation of deep neural
networks.
- Abstract(参考訳): 畳み込みニューラルネットワークはニューラルネットワーク層の階層構造を利用する。
連続するレイヤにおける情報集中の統計的側面は、特徴抽象化プロセスに関する洞察をもたらすことができる。
我々は、これらの層の塩分濃度マップを、記号やサイン利用行動の研究としても知られるセミオティックスの観点から分析する。
計算記号論において、この集合演算(スーパー化)は空間エントロピーの減少を伴う:記号はスーパーサインに集約される。
空間エントロピーを用いて, サリエンシーマップの情報内容の計算を行い, ネットワークの連続層間におけるスーパー化過程の研究を行う。
実験では、スーパー化過程を可視化し、得られた知識を用いて神経決定モデルを説明する方法を示す。
さらに,セミオティックグリード技術を用いて,ニューラルモデルのアーキテクチャを最適化する試みを行った。
我々の知る限りでは、これはディープニューラルネットワークの分析と解釈における計算セミオティックスの最初の応用である。
関連論文リスト
- Collective variables of neural networks: empirical time evolution and scaling laws [0.535514140374842]
実験的なニューラル・タンジェント・カーネルのスペクトル、特にエントロピーとトレースのスペクトルに対する特定の測定により、ニューラルネットワークが学習した表現についての洞察が得られることを示す。
結果は、トランスフォーマー、オートエンコーダ、グラフニューラルネットワーク、強化学習研究など、より複雑なネットワークで示される前に、まずテストケースで実証される。
論文 参考訳(メタデータ) (2024-10-09T21:37:14Z) - Conditional computation in neural networks: principles and research trends [48.14569369912931]
本稿では,ニューラルネットワークの設計にテクトコンディショナリ計算を適用するという,新たな領域の原理とアイデアを要約する。
特に、入力に条件付きで計算グラフの一部を動的に活性化または非活性化するニューラルネットワークに焦点を当てる。
論文 参考訳(メタデータ) (2024-03-12T11:56:38Z) - Addressing caveats of neural persistence with deep graph persistence [54.424983583720675]
神経の持続性に影響を与える主な要因は,ネットワークの重みのばらつきと大きな重みの空間集中である。
単一層ではなく,ニューラルネットワーク全体へのニューラルネットワークの持続性に基づくフィルタリングの拡張を提案する。
これにより、ネットワーク内の永続的なパスを暗黙的に取り込み、分散に関連する問題を緩和するディープグラフの永続性測定が得られます。
論文 参考訳(メタデータ) (2023-07-20T13:34:11Z) - Language Knowledge-Assisted Representation Learning for Skeleton-Based
Action Recognition [71.35205097460124]
人間が他人の行動を理解して認識する方法は、複雑な神経科学の問題である。
LA-GCNは、大規模言語モデル(LLM)知識アシストを用いたグラフ畳み込みネットワークを提案する。
論文 参考訳(メタデータ) (2023-05-21T08:29:16Z) - Graph Neural Operators for Classification of Spatial Transcriptomics
Data [1.408706290287121]
マウス脳組織サンプルにおける脳領域の予測に対する神経オペレーターの適用の有効性を検証するために,様々なグラフニューラルネットワークアプローチを取り入れた研究を提案する。
グラフニューラルネットワークのアプローチでは,F1スコアが72%近く向上し,すべてのベースラインやグラフネットワークのアプローチを上回った。
論文 参考訳(メタデータ) (2023-02-01T18:32:06Z) - An explainability framework for cortical surface-based deep learning [110.83289076967895]
我々は,皮質表面の深層学習のためのフレームワークを開発した。
まず,表面データに摂動に基づくアプローチを適用した。
我々の説明可能性フレームワークは,重要な特徴とその空間的位置を識別できるだけでなく,信頼性と有効性も示している。
論文 参考訳(メタデータ) (2022-03-15T23:16:49Z) - A Local Geometric Interpretation of Feature Extraction in Deep
Feedforward Neural Networks [13.159994710917022]
本稿では, 深部フィードフォワードニューラルネットワークが高次元データから低次元特徴をいかに抽出するかを理解するための局所幾何学的解析法を提案する。
本研究は, 局所幾何学領域において, ニューラルネットワークの一層における最適重みと前層の最適特徴が, この層のベイズ作用によって決定される行列の低ランク近似を構成することを示す。
論文 参考訳(メタデータ) (2022-02-09T18:50:00Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Neuronal Learning Analysis using Cycle-Consistent Adversarial Networks [4.874780144224057]
我々は、-CycleGANと呼ばれる深層生成モデルを用いて、前学習と後学習の神経活動の間の未知のマッピングを学習する。
我々は,カルシウム蛍光信号を前処理し,訓練し,評価するためのエンドツーエンドパイプラインを開発し,その結果の深層学習モデルを解釈する手法を開発した。
論文 参考訳(メタデータ) (2021-11-25T13:24:19Z) - Neural population geometry: An approach for understanding biological and
artificial neural networks [3.4809730725241605]
生体および人工ニューラルネットワークの機能に関する洞察を提供する幾何学的アプローチの例を概観する。
神経集団幾何学は、生体と人工のニューラルネットワークにおける構造と機能の理解を統一する可能性がある。
論文 参考訳(メタデータ) (2021-04-14T18:10:34Z) - Topological obstructions in neural networks learning [67.8848058842671]
損失勾配関数フローのグローバル特性について検討する。
損失関数とそのモースコンプレックスの位相データ解析を用いて,損失面の大域的特性と勾配軌道に沿った局所的挙動を関連付ける。
論文 参考訳(メタデータ) (2020-12-31T18:53:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。