論文の概要: Bayesian Neural Networks: An Introduction and Survey
- arxiv url: http://arxiv.org/abs/2006.12024v1
- Date: Mon, 22 Jun 2020 06:30:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 04:44:23.446038
- Title: Bayesian Neural Networks: An Introduction and Survey
- Title(参考訳): ベイズ型ニューラルネットワークの紹介と調査
- Authors: Ethan Goan and Clinton Fookes
- Abstract要約: 本稿ではベイズニューラルネットワーク(BNN)とその実装に関する基礎研究を紹介する。
異なる近似推論法を比較し、将来の研究が現在の手法でどのように改善されるかを強調するために使用される。
- 参考スコア(独自算出の注目度): 22.018605089162204
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural Networks (NNs) have provided state-of-the-art results for many
challenging machine learning tasks such as detection, regression and
classification across the domains of computer vision, speech recognition and
natural language processing. Despite their success, they are often implemented
in a frequentist scheme, meaning they are unable to reason about uncertainty in
their predictions. This article introduces Bayesian Neural Networks (BNNs) and
the seminal research regarding their implementation. Different approximate
inference methods are compared, and used to highlight where future research can
improve on current methods.
- Abstract(参考訳): ニューラルネットワーク(nns)は、コンピュータビジョン、音声認識、自然言語処理の各領域にわたる検出、回帰、分類など、多くの困難な機械学習タスクに最先端の結果を提供する。
彼らの成功にもかかわらず、しばしば頻繁なスキームで実装されるため、予測の不確実性について説明できない。
本稿では,ベイズニューラルネットワーク(bnns)とその実装に関する精査研究について述べる。
異なる近似推定法を比較し、現在の手法で将来の研究が改善できる点を強調するために使われる。
関連論文リスト
- Deep Neural Networks for Automatic Speaker Recognition Do Not Learn
Supra-Segmental Temporal Features [2.724035499453558]
本稿では,話者認識のための最先端ニューラルネットワークの性能が,SSTのモデル化によってどの程度説明できるかを定量化するための新しいテストを提案し,適用する。
話者認識のための様々なCNNおよびRNNベースのニューラルネットワークアーキテクチャは、強制してもSSTを十分な程度にモデル化していない。
論文 参考訳(メタデータ) (2023-11-01T12:45:31Z) - Deep Neural Networks Tend To Extrapolate Predictably [51.303814412294514]
ニューラルネットワークの予測は、アウト・オブ・ディストリビューション(OOD)入力に直面した場合、予測不可能で過信される傾向がある。
我々は、入力データがOODになるにつれて、ニューラルネットワークの予測が一定値に向かう傾向があることを観察する。
我々は、OOD入力の存在下でリスクに敏感な意思決定を可能にするために、私たちの洞察を実際に活用する方法を示します。
論文 参考訳(メタデータ) (2023-10-02T03:25:32Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Initial Study into Application of Feature Density and
Linguistically-backed Embedding to Improve Machine Learning-based
Cyberbullying Detection [54.83707803301847]
この研究は、自動サイバーバブル検出に関するKaggleコンペティションで提供されたFormspringデータセットで実施された。
本研究は,サイバブリング検出におけるニューラルネットワークの有効性と分類器性能と特徴密度の相関性を確認した。
論文 参考訳(メタデータ) (2022-06-04T03:17:15Z) - Can neural networks predict dynamics they have never seen? [0.4588028371034407]
ニューラルネットワークは、広範囲の複雑なタスクで驚くほど成功したことが証明されている。
彼らの成功の1つは、適切なトレーニングデータセットが与えられた将来のダイナミクスを予測するスキルである。
これまでの研究では、リカレントニューラルネットワークのサブセットであるEcho State Networks(ESNs)が、リアプノフ時間よりも長くカオスシステムを予測できることが示されている。
この研究は、ESNがトレーニングセットに含まれるあらゆる行動と質的に異なる動的挙動を予測できることを著しく示している。
論文 参考訳(メタデータ) (2021-11-12T15:49:34Z) - A Survey of Uncertainty in Deep Neural Networks [39.68313590688467]
これは、ニューラルネットワークにおける不確実性推定に関心のある人に、幅広い概要と導入を提供することを目的としている。
最も重要な不確実性源を包括的に紹介し、再現可能なモデル不確実性への分離と、再現可能なデータ不確実性について述べる。
本稿では,ニューラルネットワークのキャリブレーションに対する様々な不確実性,アプローチ,既存のベースラインと実装の概要について論じる。
論文 参考訳(メタデータ) (2021-07-07T16:39:28Z) - What can linearized neural networks actually say about generalization? [67.83999394554621]
ある無限大のニューラルネットワークにおいて、ニューラル・タンジェント・カーネル(NTK)理論は一般化を完全に特徴づける。
線形近似は、ニューラルネットワークの特定のタスクの学習複雑性を確実にランク付けできることを示す。
我々の研究は、将来の理論的研究を刺激する新しい深層学習現象の具体例を提供する。
論文 参考訳(メタデータ) (2021-06-12T13:05:11Z) - An Adversarial Approach for Explaining the Predictions of Deep Neural
Networks [9.645196221785694]
本稿では,敵対的機械学習を用いて,ディープニューラルネットワーク(DNN)の予測を説明する新しいアルゴリズムを提案する。
提案手法は,DNNに対する敵攻撃の挙動に基づいて,入力特徴の相対的重要性を推定する。
分析により、一貫性のある効率的な説明が得られます。
論文 参考訳(メタデータ) (2020-05-20T18:06:53Z) - Spiking Neural Networks Hardware Implementations and Challenges: a
Survey [53.429871539789445]
スパイキングニューラルネットワークは、ニューロンとシナプスの操作原理を模倣する認知アルゴリズムである。
スパイキングニューラルネットワークのハードウェア実装の現状について述べる。
本稿では,これらのイベント駆動アルゴリズムの特性をハードウェアレベルで活用するための戦略について論じる。
論文 参考訳(メタデータ) (2020-05-04T13:24:00Z) - Binary Neural Networks: A Survey [126.67799882857656]
バイナリニューラルネットワークは、リソース制限されたデバイスにディープモデルをデプロイするための有望なテクニックとして機能する。
バイナライゼーションは必然的に深刻な情報損失を引き起こし、さらに悪いことに、その不連続性はディープネットワークの最適化に困難をもたらす。
本稿では,2項化を直接実施するネイティブソリューションと,量子化誤差の最小化,ネットワーク損失関数の改善,勾配誤差の低減といった手法を用いて,これらのアルゴリズムを探索する。
論文 参考訳(メタデータ) (2020-03-31T16:47:20Z) - On Interpretability of Artificial Neural Networks: A Survey [21.905647127437685]
我々は、ニューラルネットワークのメカニズムを理解するための最近の研究を体系的にレビューし、特に医学における解釈可能性の応用について述べる。
本稿では,ファジィ論理や脳科学などの解釈可能性研究の今後の方向性について論じる。
論文 参考訳(メタデータ) (2020-01-08T13:40:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。