論文の概要: Introduction to Predictive Coding Networks for Machine Learning
- arxiv url: http://arxiv.org/abs/2506.06332v1
- Date: Sat, 31 May 2025 04:48:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 16:33:10.186532
- Title: Introduction to Predictive Coding Networks for Machine Learning
- Title(参考訳): 機械学習のための予測符号化ネットワーク入門
- Authors: Mikko Stenlund,
- Abstract要約: 予測符号化ネットワーク(PCN)は、脳内の階層的計算を理解するための生物学的にインスパイアされたフレームワークである。
基礎的なネットワークアーキテクチャ、推論と学習の更新ルール、アルゴリズムの実装について述べる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Predictive coding networks (PCNs) constitute a biologically inspired framework for understanding hierarchical computation in the brain, and offer an alternative to traditional feedforward neural networks in ML. This note serves as a quick, onboarding introduction to PCNs for machine learning practitioners. We cover the foundational network architecture, inference and learning update rules, and algorithmic implementation. A concrete image-classification task (CIFAR-10) is provided as a benchmark-smashing application, together with an accompanying Python notebook containing the PyTorch implementation.
- Abstract(参考訳): 予測符号化ネットワーク(PCN)は、脳内の階層的計算を理解するための生物学的にインスパイアされたフレームワークであり、MLにおける伝統的なフィードフォワードニューラルネットワークの代替手段を提供する。
このメモは、機械学習の実践者のためのPCNの迅速な導入である。
基礎的なネットワークアーキテクチャ、推論と学習の更新ルール、アルゴリズムの実装について述べる。
具体的な画像分類タスク(CIFAR-10)がベンチマークスマッシングアプリケーションとして提供され、PyTorch実装を含むPythonノートが付属する。
関連論文リスト
- NNTile: a machine learning framework capable of training extremely large GPT language models on a single node [83.9328245724548]
NNTileはタスクベースの並列処理を実装したStarPUライブラリをベースとしている。
これは、大きなニューラルネットワークをトレーニングするために必要な特定の操作が、CPUコアまたはGPUデバイスのいずれかで実行されることを意味する。
論文 参考訳(メタデータ) (2025-04-17T16:22:32Z) - Concept Learning in the Wild: Towards Algorithmic Understanding of Neural Networks [2.102973349909511]
本稿では,既存のグラフニューラルネットワーク(GNN)モデルにおける概念学習について検討する。
我々の分析によると、このモデルは人間設計SAT、特に「支援」の概念と一致する重要な概念を学習している。
発見された概念は、ブラックボックスのGNNを「リバースエンジニアリング」し、ホワイトボックスの教科書アルゴリズムとして書き換える。
論文 参考訳(メタデータ) (2024-12-15T14:37:56Z) - Predictive Coding Networks and Inference Learning: Tutorial and Survey [0.7510165488300368]
予測符号化ネットワーク(PCN)は、予測符号化の神経科学的な枠組みに基づいている。
バックプロパゲーション(BP)で訓練された従来のニューラルネットワークとは異なり、PCNは推論学習(IL)を利用する。
本質的に確率的(グラフィック的)潜在変数モデルとして、PCNは教師付き学習と教師なし(生成的)モデリングの両方に汎用的なフレームワークを提供する。
論文 参考訳(メタデータ) (2024-07-04T18:39:20Z) - Conditional computation in neural networks: principles and research trends [48.14569369912931]
本稿では,ニューラルネットワークの設計にテクトコンディショナリ計算を適用するという,新たな領域の原理とアイデアを要約する。
特に、入力に条件付きで計算グラフの一部を動的に活性化または非活性化するニューラルネットワークに焦点を当てる。
論文 参考訳(メタデータ) (2024-03-12T11:56:38Z) - Continual Inference: A Library for Efficient Online Inference with Deep
Neural Networks in PyTorch [97.03321382630975]
Continual Inferenceは、PyTorchでContinuous Inference Networks(CIN)を実装するPythonライブラリである。
我々は、CINとその実装を包括的に紹介し、現代のディープラーニングのための複雑なモジュールを構成するためのベストプラクティスとコード例を提供します。
論文 参考訳(メタデータ) (2022-04-07T13:03:09Z) - FF-NSL: Feed-Forward Neural-Symbolic Learner [70.978007919101]
本稿では,Feed-Forward Neural-Symbolic Learner (FF-NSL) と呼ばれるニューラルシンボリック学習フレームワークを紹介する。
FF-NSLは、ラベル付き非構造化データから解釈可能な仮説を学習するために、Answer Setセマンティクスに基づく最先端のICPシステムとニューラルネットワークを統合する。
論文 参考訳(メタデータ) (2021-06-24T15:38:34Z) - Learning Structures for Deep Neural Networks [99.8331363309895]
我々は,情報理論に根ざし,計算神経科学に発達した効率的な符号化原理を採用することを提案する。
スパース符号化は出力信号のエントロピーを効果的に最大化できることを示す。
公開画像分類データセットを用いた実験により,提案アルゴリズムでスクラッチから学習した構造を用いて,最も優れた専門家設計構造に匹敵する分類精度が得られることを示した。
論文 参考訳(メタデータ) (2021-05-27T12:27:24Z) - Introduction to Machine Learning for the Sciences [0.0]
ノートは、原則コンポーネント分析、t-SNE、線形回帰など、ニューラルネットワークのない機械学習メソッドの展開から始まる。
我々は、従来のニューラルネットワーク、(変分)オートエンコーダ、生成的敵ネットワーク、制限されたボルツマンマシン、繰り返しニューラルネットワークなどの、基礎的および高度なニューラルネットワーク構造の導入を継続する。
論文 参考訳(メタデータ) (2021-02-08T16:25:46Z) - Local Critic Training for Model-Parallel Learning of Deep Neural
Networks [94.69202357137452]
そこで我々は,局所的批判訓練と呼ばれる新しいモデル並列学習手法を提案する。
提案手法は,畳み込みニューラルネットワーク(CNN)とリカレントニューラルネットワーク(RNN)の両方において,階層群の更新プロセスの分離に成功したことを示す。
また,提案手法によりトレーニングされたネットワークを構造最適化に利用できることを示す。
論文 参考訳(メタデータ) (2021-02-03T09:30:45Z) - Applications of Deep Neural Networks with Keras [0.0]
ディープラーニングにより、ニューラルネットワークは人間の脳の機能のような方法で情報の階層を学習することができる。
本コースでは,従来のニューラルネットワーク構造であるConversa Neural Networks (CNN), Long Short-Term Memory (LSTM), Gated Recurrent Neural Networks (GRU), General Adrial Networks (GAN)を紹介する。
論文 参考訳(メタデータ) (2020-09-11T22:09:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。