論文の概要: Bayesian Integration of Information Using Top-Down Modulated WTA
Networks
- arxiv url: http://arxiv.org/abs/2308.15390v1
- Date: Tue, 29 Aug 2023 15:33:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-30 13:21:37.009339
- Title: Bayesian Integration of Information Using Top-Down Modulated WTA
Networks
- Title(参考訳): トップダウン変調WTAネットワークを用いたベイズ情報の統合
- Authors: Otto van der Himst, Leila Bagheriye, and Johan Kwisthout
- Abstract要約: Winner Take All(WTA)回路は、スパイキングニューラルネットワーク(SNN)の一種であり、ベイズ的な方法で情報を処理する脳の能力を促進することが提案されている。
本稿では,WTA 回路が別の WTA ネットワークで表現される情報の統合に適しているかを考察する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Winner Take All (WTA) circuits a type of Spiking Neural Networks (SNN) have
been suggested as facilitating the brain's ability to process information in a
Bayesian manner. Research has shown that WTA circuits are capable of
approximating hierarchical Bayesian models via Expectation Maximization (EM).
So far, research in this direction has focused on bottom up processes. This is
contrary to neuroscientific evidence that shows that, besides bottom up
processes, top down processes too play a key role in information processing by
the human brain. Several functions ascribed to top down processes include
direction of attention, adjusting for expectations, facilitation of encoding
and recall of learned information, and imagery. This paper explores whether WTA
circuits are suitable for further integrating information represented in
separate WTA networks. Furthermore, it explores whether, and under what
circumstances, top down processes can improve WTA network performance with
respect to inference and learning. The results show that WTA circuits are
capable of integrating the probabilistic information represented by other WTA
networks, and that top down processes can improve a WTA network's inference and
learning performance. Notably, it is able to do this according to key
neuromorphic principles, making it ideal for low-latency and energy efficient
implementation on neuromorphic hardware.
- Abstract(参考訳): Winner Take All(WTA)回路は、スパイキングニューラルネットワーク(SNN)の一種であり、ベイズ的な方法で情報を処理する脳の能力を促進することが提案されている。
WTA回路は期待最大化(EM)により階層ベイズモデルを近似できることを示した。
これまでのところ、この方向の研究はボトムアッププロセスに焦点を当てている。
これは、ボトムアッププロセス以外に、トップダウンプロセスも人間の脳の情報処理において重要な役割を果たすことを示す神経科学的証拠とは対照的である。
トップダウンプロセスに記述されている機能には、注意方向、期待の調整、学習した情報のエンコーディングとリコールの促進、イメージなどがある。
本稿では、WTA 回路が、WTA ネットワークで表現される情報をさらに統合するのに適しているかを考察する。
さらに、トップダウンプロセスが推論や学習に関してWTAネットワークの性能を向上させることができるかどうかについても検討する。
その結果、WTA回路は、他のWTAネットワークで表される確率情報を統合でき、トップダウン処理により、WTAネットワークの推論および学習性能が向上することを示した。
特に、これは重要なニューロモルフィックの原理に従って行うことができ、ニューロモルフィックのハードウェアに対する低レイテンシでエネルギー効率のよい実装に最適である。
関連論文リスト
- Can KAN Work? Exploring the Potential of Kolmogorov-Arnold Networks in Computer Vision [6.554163686640315]
本研究ではまず,コンピュータビジョンタスクにおけるkanの可能性を分析し,画像分類とセマンティックセグメンテーションにおけるkanとその畳み込み特性を評価する。
以上の結果から,感性は強いが,ノイズに敏感であり,頑健さを抑えることが示唆された。
この課題に対処するため,正規化手法を提案し,セグメンション・デアクティベーション手法を提案する。
論文 参考訳(メタデータ) (2024-11-11T05:44:48Z) - Learning Object-Centric Representation via Reverse Hierarchy Guidance [73.05170419085796]
OCL(Object-Centric Learning)は、ニューラルネットワークが視覚的なシーンで個々のオブジェクトを識別できるようにする。
RHGNetは、トレーニングと推論プロセスにおいて、さまざまな方法で機能するトップダウンパスを導入している。
我々のモデルは、よく使われる複数のデータセット上でSOTA性能を達成する。
論文 参考訳(メタデータ) (2024-05-17T07:48:27Z) - Visual Prompting Upgrades Neural Network Sparsification: A Data-Model Perspective [64.04617968947697]
より優れた重量空間を実現するために、新しいデータモデル共設計視点を導入する。
具体的には、提案したVPNフレームワークでニューラルネットワークのスパーシフィケーションをアップグレードするために、カスタマイズされたVisual Promptが実装されている。
論文 参考訳(メタデータ) (2023-12-03T13:50:24Z) - Squeeze aggregated excitation network [0.0]
畳み込みニューラルネットワークは、視覚タスクのパターンを読み取る空間表現を持つ。
本稿では,Squeeze集約励起ネットワークであるSaEnetを提案する。
論文 参考訳(メタデータ) (2023-08-25T12:30:48Z) - On the role of feedback in visual processing: a predictive coding
perspective [0.6193838300896449]
我々は、フィードフォワード視覚処理のモデルとして深層畳み込みネットワーク(CNN)を検討し、予測符号化(PC)ダイナミクスを実装した。
ノイズレベルが増加するにつれて、ネットワークはますますトップダウンの予測に依存している。
さらに,PCダイナミクスを実装するネットワークの精度は,等価なフォワードネットワークに比べて時間経過とともに著しく向上する。
論文 参考訳(メタデータ) (2021-06-08T10:07:23Z) - Explainability-aided Domain Generalization for Image Classification [0.0]
説明可能性文献から手法やアーキテクチャを適用することで、ドメインの一般化という困難な課題に対して最先端のパフォーマンスを達成できることを示す。
そこで我々は,勾配に基づくクラスアクティベーションマップを用いて学習中にネットワークが指導を受ける手法であるDivCAMを含む新しいアルゴリズムを開発し,多様な識別機能に焦点をあてる。
これらの手法は、説明可能性に加えて競合性能を提供するため、深層ニューラルネットワークアーキテクチャのロバスト性を改善するツールとして使用できると論じる。
論文 参考訳(メタデータ) (2021-04-05T02:27:01Z) - Cream of the Crop: Distilling Prioritized Paths For One-Shot Neural
Architecture Search [60.965024145243596]
ワンショット重み共有手法は、高効率と競争性能のため、最近、ニューラルアーキテクチャ探索において大きな注目を集めている。
この問題を軽減するため, 単純で効果的な蒸留法を提案する。
本稿では、訓練中に優れた性能を示すアーキテクチャ候補を指す優先順位付けパスの概念を紹介する。
優先順位付けされた経路は、その性能や複雑さに応じて、ハエで変化するため、最終的な経路は作物のクリームである。
論文 参考訳(メタデータ) (2020-10-29T17:55:05Z) - Learning Deep Interleaved Networks with Asymmetric Co-Attention for
Image Restoration [65.11022516031463]
本稿では,高品質(本社)画像再構成のために,異なる状態の情報をどのように組み合わせるべきかを学習するディープインターリーブドネットワーク(DIN)を提案する。
本稿では,各インターリーブノードにアタッチメントされた非対称なコアテンション(AsyCA)を提案し,その特性依存性をモデル化する。
提案したDINはエンドツーエンドで訓練でき、様々な画像復元タスクに適用できる。
論文 参考訳(メタデータ) (2020-10-29T15:32:00Z) - Embedded Encoder-Decoder in Convolutional Networks Towards Explainable
AI [0.0]
本稿では,刺激の視覚的特徴を表す新しい説明可能な畳み込みニューラルネットワーク(XCNN)を提案する。
CIFAR-10, Tiny ImageNet, MNISTデータセットを用いた実験結果から, 提案アルゴリズム (XCNN) をCNNで説明可能なものにすることに成功した。
論文 参考訳(メタデータ) (2020-06-19T15:49:39Z) - Curriculum By Smoothing [52.08553521577014]
畳み込みニューラルネットワーク(CNN)は、画像分類、検出、セグメンテーションなどのコンピュータビジョンタスクにおいて顕著な性能を示している。
アンチエイリアスフィルタやローパスフィルタを用いてCNNの機能埋め込みを円滑化するエレガントなカリキュラムベースのスキームを提案する。
トレーニング中に特徴マップ内の情報量が増加するにつれて、ネットワークはデータのより優れた表現を徐々に学習することができる。
論文 参考訳(メタデータ) (2020-03-03T07:27:44Z) - Weakly Supervised Attention Pyramid Convolutional Neural Network for
Fine-Grained Visual Classification [71.96618723152487]
注意ピラミッド畳み込みニューラルネットワーク(AP-CNN)について紹介する。
AP-CNNは高レベルのセマンティックと低レベルの詳細な特徴表現の両方を学ぶ。
追加のバウンディングボックス/パートアノテーションを必要とせずに、エンドツーエンドでトレーニングすることができる。
論文 参考訳(メタデータ) (2020-02-09T12:33:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。