論文の概要: Towards On-Chip Bayesian Neuromorphic Learning
- arxiv url: http://arxiv.org/abs/2005.04165v1
- Date: Tue, 5 May 2020 18:45:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 13:06:45.749277
- Title: Towards On-Chip Bayesian Neuromorphic Learning
- Title(参考訳): オンチップベイズ型ニューロモーフィック学習に向けて
- Authors: Nathan Wycoff, Prasanna Balaprakash, Fangfang Xia
- Abstract要約: エッジデバイスは、彼らの決定が深刻な経済的、政治的、または公衆衛生的な結果をもたらす可能性のある重要なアプリケーションにデプロイされる必要がある。
彼らは、自分の環境にどう反応するかわからないときに、信号を送る方法が必要です。
e-prop 1は、これをブロードキャストアライメントで解決する有望な学習アルゴリズムである。
- 参考スコア(独自算出の注目度): 0.9281671380673306
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: If edge devices are to be deployed to critical applications where their
decisions could have serious financial, political, or public-health
consequences, they will need a way to signal when they are not sure how to
react to their environment. For instance, a lost delivery drone could make its
way back to a distribution center or contact the client if it is confused about
how exactly to make its delivery, rather than taking the action which is "most
likely" correct. This issue is compounded for health care or military
applications. However, the brain-realistic temporal credit assignment problem
neuromorphic computing algorithms have to solve is difficult. The double role
weights play in backpropagation-based-learning, dictating how the network
reacts to both input and feedback, needs to be decoupled. e-prop 1 is a
promising learning algorithm that tackles this with Broadcast Alignment (a
technique where network weights are replaced with random weights during
feedback) and accumulated local information. We investigate under what
conditions the Bayesian loss term can be expressed in a similar fashion,
proposing an algorithm that can be computed with only local information as well
and which is thus no more difficult to implement on hardware. This algorithm is
exhibited on a store-recall problem, which suggests that it can learn good
uncertainty on decisions to be made over time.
- Abstract(参考訳): エッジデバイスが重要なアプリケーションにデプロイされ、彼らの決定が深刻な経済的、政治的、または公衆衛生的な結果をもたらす可能性がある場合、彼らは環境にどう反応するかを判断する手段が必要である。
例えば、失われた配達ドローンは、配信センターに戻るか、正確に配送する方法が混乱している場合、そのアクションを“おそらく”正しいものにするのではなく、クライアントに連絡する可能性がある。
この問題は医療や軍事用途に当てはまる。
しかし、ニューロモーフィックコンピューティングアルゴリズムが解決しなければならない脳-リアリスティックな時間的クレジット割り当て問題は困難である。
二重の役割重みはバックプロパゲーションベースの学習で働き、ネットワークが入力とフィードバックの両方にどのように反応するかを決定する。
e-prop 1は有望な学習アルゴリズムであり、ブロードキャストアライメント(フィードバック中にネットワークの重みをランダムな重みに置き換えるテクニック)と蓄積されたローカル情報を扱う。
ベイズ損失項を類似の方法で表現できる条件について検討し,局所情報のみを用いて計算可能で,ハードウェア上で実装することがもはや困難ではないアルゴリズムを提案する。
このアルゴリズムは、ストア-リコール問題に現れ、時間とともに行われる決定について、適切な不確実性を学ぶことができることを示唆している。
関連論文リスト
- Multi-Agent Reinforcement Learning with Hierarchical Coordination for Emergency Responder Stationing [8.293120269016834]
緊急対応者管理システム(ERM)は、医療援助の要請を受けたときに対応者を派遣する。
ERMシステムは、任意のギャップをカバーするために予め指定された待機場所間で応答器を積極的に再配置することができる。
プロアクティブな再配置における最先端のアプローチは、空間分解とオンラインモンテカルロ木探索に基づく階層的なアプローチである。
同じ階層的な分解に基づく新しい強化学習(RL)アプローチを導入するが、オンライン検索を学習に置き換える。
論文 参考訳(メタデータ) (2024-05-21T21:15:45Z) - User Strategization and Trustworthy Algorithms [81.82279667028423]
ユーザストラテジゼーションがプラットフォームを短期間で支援できることが示されています。
そして、それがプラットフォームのデータを破壊し、最終的に反実的な決定を下す能力を損なうことを示します。
論文 参考訳(メタデータ) (2023-12-29T16:09:42Z) - Adaptive Self-supervision Algorithms for Physics-informed Neural
Networks [59.822151945132525]
物理情報ニューラルネットワーク(PINN)は、損失関数のソフト制約として問題領域からの物理的知識を取り入れている。
これらのモデルの訓練性に及ぼす座標点の位置の影響について検討した。
モデルがより高い誤りを犯している領域に対して、より多くのコロケーションポイントを段階的に割り当てる適応的コロケーション方式を提案する。
論文 参考訳(メタデータ) (2022-07-08T18:17:06Z) - An actor-critic algorithm with policy gradients to solve the job shop
scheduling problem using deep double recurrent agents [1.3812010983144802]
ジョブショップスケジューリング問題(JSSP)に対する深層強化学習手法を提案する。
目的は、ジョブやマシンの数によって異なるJSSPインスタンスのディストリビューションについて学べるgreedyのようなものを構築することである。
予想通り、モデルはある程度は、トレーニングで使用されるものと異なる分布から生じるより大きな問題やインスタンスに一般化することができる。
論文 参考訳(メタデータ) (2021-10-18T07:55:39Z) - Conditional physics informed neural networks [85.48030573849712]
固有値問題のクラス解を推定するための条件付きPINN(物理情報ニューラルネットワーク)を紹介します。
一つのディープニューラルネットワークが、問題全体に対する偏微分方程式の解を学習できることが示される。
論文 参考訳(メタデータ) (2021-04-06T18:29:14Z) - Invariance, encodings, and generalization: learning identity effects
with neural networks [0.0]
単純な基準を満たすアルゴリズムが正しい推論を行うことができないことを厳密に証明できるフレームワークを提供する。
次に,勾配に基づくアルゴリズムで学習した深層フィードフォワードニューラルネットワークを含む幅広い学習アルゴリズムが,我々の基準を満たしていることを示す。
より広い状況では、ネットワークが必ずしも誤って分類する逆の例を提供することができます。
論文 参考訳(メタデータ) (2021-01-21T01:28:15Z) - Policy Gradient for Continuing Tasks in Non-stationary Markov Decision
Processes [112.38662246621969]
強化学習は、マルコフ決定プロセスにおいて期待される累積報酬を最大化するポリシーを見つけることの問題を考える。
我々は、ポリシーを更新するために上昇方向として使用する値関数の偏りのないナビゲーション勾配を計算する。
ポリシー勾配型アルゴリズムの大きな欠点は、定常性の仮定が課せられない限り、それらがエピソジックなタスクに限定されていることである。
論文 参考訳(メタデータ) (2020-10-16T15:15:42Z) - Activation Relaxation: A Local Dynamical Approximation to
Backpropagation in the Brain [62.997667081978825]
活性化緩和(AR)は、バックプロパゲーション勾配を力学系の平衡点として構成することで動機付けられる。
我々のアルゴリズムは、正しいバックプロパゲーション勾配に迅速かつ堅牢に収束し、単一のタイプの計算単位しか必要とせず、任意の計算グラフで操作できる。
論文 参考訳(メタデータ) (2020-09-11T11:56:34Z) - Kernelized information bottleneck leads to biologically plausible
3-factor Hebbian learning in deep networks [6.09170287691728]
これらの問題に苦しむことのない学習ルールのファミリーを提示する。
結果として生じる規則は3要素のヘビアン構造を持つ。
正確なラベルは必要とせず、代わりに所望の出力のペア間の類似性に依存する。
論文 参考訳(メタデータ) (2020-06-12T12:30:53Z) - DisCor: Corrective Feedback in Reinforcement Learning via Distribution
Correction [96.90215318875859]
ブートストラップに基づくQ-ラーニングアルゴリズムは必ずしも修正フィードバックの恩恵を受けないことを示す。
本稿では,この最適分布に対する近似を計算し,トレーニングに使用する遷移の重み付けに使用する新しいアルゴリズムであるDisCorを提案する。
論文 参考訳(メタデータ) (2020-03-16T16:18:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。