論文の概要: Under the Hood of Neural Networks: Characterizing Learned
Representations by Functional Neuron Populations and Network Ablations
- arxiv url: http://arxiv.org/abs/2004.01254v2
- Date: Mon, 11 May 2020 09:09:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-17 09:38:04.142828
- Title: Under the Hood of Neural Networks: Characterizing Learned
Representations by Functional Neuron Populations and Network Ablations
- Title(参考訳): ニューラルネットワークのフッドの下で:機能的ニューロン集団とネットワークアブレーションによる学習表現のキャラクタリゼーション
- Authors: Richard Meyes, Constantin Waubert de Puiseau, Andres Posada-Moreno,
Tobias Meisen
- Abstract要約: 学習課題を遂行するネットワーク内の単一ニューロンとニューロン群の役割について、光を当てた。
ニューロンの大きさやアクティベーションの選択性、ネットワーク性能への影響は、スタンドアローンの指標として十分ではないことが分かりました。
- 参考スコア(独自算出の注目度): 0.3441021278275805
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The need for more transparency of the decision-making processes in artificial
neural networks steadily increases driven by their applications in safety
critical and ethically challenging domains such as autonomous driving or
medical diagnostics. We address today's lack of transparency of neural networks
and shed light on the roles of single neurons and groups of neurons within the
network fulfilling a learned task. Inspired by research in the field of
neuroscience, we characterize the learned representations by activation
patterns and network ablations, revealing functional neuron populations that a)
act jointly in response to specific stimuli or b) have similar impact on the
network's performance after being ablated. We find that neither a neuron's
magnitude or selectivity of activation, nor its impact on network performance
are sufficient stand-alone indicators for its importance for the overall task.
We argue that such indicators are essential for future advances in transfer
learning and modern neuroscience.
- Abstract(参考訳): 人工知能ネットワークにおける意思決定プロセスの透明性向上の必要性は、自律運転や医療診断といった安全性に批判的かつ倫理的に困難な領域における彼らの応用によって、着実に増大している。
今日のニューラルネットワークの透明性の欠如に対処し、学習タスクを遂行するネットワーク内の単一ニューロンとニューロンのグループの役割に光を当てています。
神経科学の分野での研究に触発され、活性化パターンとネットワークアブレーションによって学習された表現を特徴付け、機能的ニューロン集団を明らかにする。
a) 特定の刺激に応答して共同で行動すること
b) アブレーション後のネットワークのパフォーマンスに同様の影響がある。
ニューロンの大きさやアクティベーションの選択性、ネットワーク性能への影響は、全体のタスクにおいてその重要性を示すのに十分な指標ではないことがわかりました。
このような指標は、転校学習と現代神経科学の今後の進歩に不可欠である。
関連論文リスト
- Retinal Vessel Segmentation via Neuron Programming [17.609169389489633]
本稿では,神経レベルでのネットワークの表現能力を高めるため,ニューラルネット設計における新しいアプローチであるニューラルネットプログラミングについて紹介する。
総合的な実験により、ニューロンプログラミングは網膜の血液分画において競合的な性能を発揮することが検証された。
論文 参考訳(メタデータ) (2024-11-17T16:03:30Z) - Adapting the Biological SSVEP Response to Artificial Neural Networks [5.4712259563296755]
本稿では,神経科学の手法である周波数タギングに触発されたニューロン重要度評価に対する新しいアプローチを提案する。
画像分類のための畳み込みニューラルネットワークを用いて行った実験では、パートベースの周波数タギングの下でのニューロン特異的応答における顕著な調和と相互変調が明らかにされた。
提案手法は,ネットワークプルーニングやモデル解釈可能性などの応用を約束し,説明可能な人工知能の進歩に寄与する。
論文 参考訳(メタデータ) (2024-11-15T10:02:48Z) - Artificial Kuramoto Oscillatory Neurons [65.16453738828672]
しきい値単位の動的代替として人工内蔵ニューロン(AKOrN)を導入する。
このアイデアは、幅広いタスクにまたがってパフォーマンス改善をもたらすことを示しています。
これらの経験的結果は、神経表現の最も基本的なレベルにおいて、私たちの仮定の重要性を示していると信じている。
論文 参考訳(メタデータ) (2024-10-17T17:47:54Z) - Enhancing learning in spiking neural networks through neuronal heterogeneity and neuromodulatory signaling [52.06722364186432]
人工ニューラルネットワーク(ANN)の強化のための生物学的インフォームドフレームワークを提案する。
提案したデュアルフレームアプローチは、多様なスパイキング動作をエミュレートするためのスパイキングニューラルネットワーク(SNN)の可能性を強調している。
提案手法は脳にインスパイアされたコンパートメントモデルとタスク駆動型SNN, バイオインスピレーション, 複雑性を統合している。
論文 参考訳(メタデータ) (2024-07-05T14:11:28Z) - Brain-Inspired Machine Intelligence: A Survey of
Neurobiologically-Plausible Credit Assignment [65.268245109828]
本稿では,神経生物学にインスパイアされた,あるいは動機付けられた人工ニューラルネットワークにおける信用割当を行うアルゴリズムについて検討する。
我々は、脳にインスパイアされた学習スキームを6つの一般的なファミリーにまとめ、これらを誤りのバックプロパゲーションの文脈で検討する。
本研究の成果は,神経ミメティックシステムとその構成的学習プロセスの今後の発展を促進することを目的としている。
論文 参考訳(メタデータ) (2023-12-01T05:20:57Z) - Automated Natural Language Explanation of Deep Visual Neurons with Large
Models [43.178568768100305]
本稿では,大きな基礎モデルを持つニューロンの意味的説明を生成するための,新しいポストホックフレームワークを提案する。
我々のフレームワークは、様々なモデルアーキテクチャやデータセット、自動化されたスケーラブルなニューロン解釈と互換性があるように設計されています。
論文 参考訳(メタデータ) (2023-10-16T17:04:51Z) - Expressivity of Spiking Neural Networks [15.181458163440634]
本研究では,ニューロンの発射時間内に情報を符号化したスパイクニューラルネットワークの能力について検討する。
ReLUネットワークとは対照的に、スパイクニューラルネットワークは連続関数と不連続関数の両方を実現することができる。
論文 参考訳(メタデータ) (2023-08-16T08:45:53Z) - Mitigating Communication Costs in Neural Networks: The Role of Dendritic
Nonlinearity [28.243134476634125]
本研究では,ニューラルネットワークにおける非線形デンドライトの重要性について検討した。
その結果,樹状構造の統合はモデル容量と性能を大幅に向上させることができることがわかった。
論文 参考訳(メタデータ) (2023-06-21T00:28:20Z) - Contrastive-Signal-Dependent Plasticity: Self-Supervised Learning in Spiking Neural Circuits [61.94533459151743]
この研究は、スパイキングネットワークのシナプスを調整するための神経生物学的に動機づけられたスキームを設計することの課題に対処する。
我々の実験シミュレーションは、繰り返しスパイクネットワークを訓練する際、他の生物学的に証明可能なアプローチに対して一貫した優位性を示す。
論文 参考訳(メタデータ) (2023-03-30T02:40:28Z) - Spiking neural network for nonlinear regression [68.8204255655161]
スパイクニューラルネットワークは、メモリとエネルギー消費を大幅に削減する可能性を持っている。
彼らは、次世代のニューロモルフィックハードウェアによって活用できる時間的および神経的疎結合を導入する。
スパイキングニューラルネットワークを用いた回帰フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:04:45Z) - Overcoming the Domain Gap in Contrastive Learning of Neural Action
Representations [60.47807856873544]
神経科学の基本的な目標は、神経活動と行動の関係を理解することである。
我々は,ハエが自然に生み出す行動からなる新しいマルチモーダルデータセットを作成した。
このデータセットと新しい拡張セットは、神経科学における自己教師あり学習手法の適用を加速することを約束します。
論文 参考訳(メタデータ) (2021-11-29T15:27:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。