論文の概要: Investigating Plausibility of Biologically Inspired Bayesian Learning in ANNs
- arxiv url: http://arxiv.org/abs/2411.18788v1
- Date: Wed, 27 Nov 2024 22:19:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-02 15:19:32.048620
- Title: Investigating Plausibility of Biologically Inspired Bayesian Learning in ANNs
- Title(参考訳): ANNにおける生物学的ベイズ学習の妥当性の検討
- Authors: Ram Zaveri,
- Abstract要約: 破滅的な忘れ事は、人工システムにおける生涯学習の領域における主要な問題である。
我々は、このベイズ推定を、より生物学的にインスパイアされたモデルに模倣するために閾値決定機構を組み込んだ。
視覚データセットMNISTを用いた人工システムにおける生物学的にインスパイアされたベイズ学習の有効性について検討した。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Catastrophic forgetting has been the leading issue in the domain of lifelong learning in artificial systems. Current artificial systems are reasonably good at learning domains they have seen before; however, as soon as they encounter something new, they either go through a significant performance deterioration or if you try to teach them the new distribution of data, they forget what they have learned before. Additionally, they are also prone to being overly confident when performing inference on seen as well as unseen data, causing significant reliability issues when lives are at stake. Therefore, it is extremely important to dig into this problem and formulate an approach that will be continually adaptable as well as reliable. If we move away from the engineering domain of such systems and look into biological systems, we can realize that these very systems are very efficient at computing the reliance as well as the uncertainty of accurate predictions that further help them refine the inference in a life-long setting. These systems are not perfect; however, they do give us a solid understanding of the reasoning under uncertainty which takes us to the domain of Bayesian reasoning. We incorporate this Bayesian inference with thresholding mechanism as to mimic more biologically inspired models, but only at spatial level. Further, we reproduce a recent study on Bayesian Inference with Spiking Neural Networks for Continual Learning to compare against it as a suitable biologically inspired Bayesian framework. Overall, we investigate the plausibility of biologically inspired Bayesian Learning in artificial systems on a vision dataset, MNIST, and show relative performance improvement under the conditions when the model is forced to predict VS when the model is not.
- Abstract(参考訳): 破滅的な忘れ事は、人工システムにおける生涯学習の領域における主要な問題である。
しかし、何か新しいことに遭遇すると、パフォーマンスが大幅に低下するか、新しいデータの分布を教えようとすると、彼らが以前に学んだことを忘れてしまう。
さらに、目に見えるデータだけでなく、目に見えないデータでも推測を行う場合、過度な自信を持つ傾向があり、生命が危うい時に重大な信頼性の問題を引き起こす。
したがって、この問題を掘り下げ、継続的に適応可能で信頼性の高いアプローチを定式化することが極めて重要である。
このようなシステムのエンジニアリング領域から離れ、生物学的システムに目を移すと、これらのシステムは依存度を計算し、正確な予測の不確実性も認識し、寿命の長い環境で推論をさらに洗練させるのに役立つ。
これらの系は完全ではないが、不確実性の下での推論をしっかりと理解し、ベイズ的推論の領域に導かれる。
我々は、このベイズ推定を、より生物学的にインスパイアされたモデルに模倣するために閾値決定機構を組み込んだが、空間レベルでのみである。
さらに, 連続学習のためのスパイクニューラルネットワークを用いたベイジアン推論に関する最近の研究を再現し, 生物学的にインスピレーションを受けたベイジアンフレームワークとして比較した。
視覚データセットMNIST上の人工システムにおける生物学的にインスパイアされたベイズ学習の妥当性について検討し,モデルがVSを予測できない場合の条件下での相対的な性能向上を示す。
関連論文リスト
- Learning to refine domain knowledge for biological network inference [2.209921757303168]
摂動実験により、生物学者は興味のある変数間の因果関係を発見することができる。
これらのデータの空間性と高次元性は因果構造学習アルゴリズムに重大な課題をもたらす。
そこで本研究では,データ観測に基づくドメイン知識の補修アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-18T12:53:23Z) - Detecting Model Misspecification in Amortized Bayesian Inference with Neural Networks: An Extended Investigation [9.950524371154394]
本研究では、教師なしの方法で訓練し、テスト時にモデルの誤特定を確実に検出できる新しい誤特定尺度を提案する。
提案手法は,不審な出力をユーザに警告し,予測が信頼できない場合に警告を発し,モデル設計者がより良いシミュレータを探索する際の指針となることを示す。
論文 参考訳(メタデータ) (2024-06-05T11:30:16Z) - Bayesian Neural Networks with Domain Knowledge Priors [52.80929437592308]
ドメイン知識の一般的な形式をBNNに組み込むためのフレームワークを提案する。
提案したドメイン知識を用いたBNNは,標準知識のBNNよりも優れていることを示す。
論文 参考訳(メタデータ) (2024-02-20T22:34:53Z) - Exploring Biologically Inspired Mechanisms of Adversarial Robustness [0.0]
我々は、勝者を持つ教師なしの局所学習モデルが全てのダイナミクスにそのような力の法則表現を学習させることを示す。
本研究の目的は, 神経表現における幾何学的特徴, スペクトル特性, 頑健性, 表現性の間の相互作用を理解することである。
論文 参考訳(メタデータ) (2024-02-05T12:06:00Z) - Interpretable Self-Aware Neural Networks for Robust Trajectory
Prediction [50.79827516897913]
本稿では,意味概念間で不確実性を分散する軌道予測のための解釈可能なパラダイムを提案する。
実世界の自動運転データに対する我々のアプローチを検証し、最先端のベースラインよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-16T06:28:20Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Leveraging the structure of dynamical systems for data-driven modeling [111.45324708884813]
トレーニングセットとその構造が長期予測の品質に与える影響を考察する。
トレーニングセットのインフォームドデザインは,システムの不変性と基盤となるアトラクションの構造に基づいて,結果のモデルを大幅に改善することを示す。
論文 参考訳(メタデータ) (2021-12-15T20:09:20Z) - Learning Uncertainty with Artificial Neural Networks for Improved
Remaining Time Prediction of Business Processes [0.15229257192293202]
本論文では,これらの手法を予測過程のモニタリングに応用する。
より正確な予測と迅速な作業に貢献できることが分かりました。
これは多くの興味深い応用をもたらし、より小さなデータセットを持つ予測システムを早期に導入し、人間とのより良い協力を促進する。
論文 参考訳(メタデータ) (2021-05-12T10:18:57Z) - Exploring Bayesian Deep Learning for Urgent Instructor Intervention Need
in MOOC Forums [58.221459787471254]
大規模なオープンオンラインコース(MOOC)は、その柔軟性のおかげで、eラーニングの一般的な選択肢となっている。
多くの学習者とその多様な背景から、リアルタイムサポートの提供は課税されている。
MOOCインストラクターの大量の投稿と高い作業負荷により、インストラクターが介入を必要とするすべての学習者を識別できる可能性は低いです。
本稿では,モンテカルロドロップアウトと変分推論という2つの手法を用いて,学習者によるテキスト投稿のベイジアン深層学習を初めて検討する。
論文 参考訳(メタデータ) (2021-04-26T15:12:13Z) - Improving Uncertainty Calibration via Prior Augmented Data [56.88185136509654]
ニューラルネットワークは、普遍関数近似器として機能することで、複雑なデータ分布から学習することに成功した。
彼らはしばしば予測に自信過剰であり、不正確で誤った確率的予測に繋がる。
本稿では,モデルが不当に過信である特徴空間の領域を探索し,それらの予測のエントロピーをラベルの以前の分布に対して条件的に高める手法を提案する。
論文 参考訳(メタデータ) (2021-02-22T07:02:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。