論文の概要: Arithmetic Distribution Neural Network for Background Subtraction
- arxiv url: http://arxiv.org/abs/2104.08390v1
- Date: Fri, 16 Apr 2021 22:44:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-20 13:59:08.146554
- Title: Arithmetic Distribution Neural Network for Background Subtraction
- Title(参考訳): 背景減算のための算術分布ニューラルネットワーク
- Authors: Chenqiu Zhao, Kangkang Hu and Anup Basu
- Abstract要約: 背景減算時における時間画素の分布を学習するための新しい算術分布ニューラルネットワーク(ADNN)を提案する。
提案手法はヒストグラムの確率情報を利用して有望な結果を得ることができる。
- 参考スコア(独自算出の注目度): 7.09875977818162
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a new Arithmetic Distribution Neural Network (ADNN) for learning
the distributions of temporal pixels during background subtraction. In our
ADNN, the arithmetic distribution operations are utilized to propose the
arithmetic distribution layers, including the product distribution layer and
the sum distribution layer. Furthermore, in order to improve the accuracy of
the proposed approach, an improved Bayesian refinement model based on
neighboring information, with a GPU implementation, is introduced. In the
forward pass and backpropagation of the proposed arithmetic distribution
layers, histograms are considered as probability density functions rather than
matrices. Thus, the proposed approach is able to utilize the probability
information of the histogram and achieve promising results with a very simple
architecture compared to traditional convolutional neural networks. Evaluations
using standard benchmarks demonstrate the superiority of the proposed approach
compared to state-of-the-art traditional and deep learning methods. To the best
of our knowledge, this is the first method to propose network layers based on
arithmetic distribution operations for learning distributions during background
subtraction.
- Abstract(参考訳): 本稿では,背景減算時の時間的画素分布を学習するための新しい算術分布ニューラルネットワーク(adnn)を提案する。
当社のADNNでは,積分布層と和分布層を含む算術分布層を提案するために,算術分布演算を利用する。
さらに,提案手法の精度を向上させるため,周辺情報に基づく改良ベイズ改良モデルをGPU実装で導入した。
提案した算術分布層の前方通過と後方伝播では、ヒストグラムは行列ではなく確率密度関数と見なされる。
提案手法は,従来の畳み込みニューラルネットワークと比較して,非常に単純なアーキテクチャでヒストグラムの確率情報を利用することができ,有望な結果が得られる。
標準ベンチマークによる評価は、最先端の伝統・深層学習手法と比較して提案手法の優位性を示す。
我々の知る限りでは、バックグラウンドサブトラクション中の分布を学習するための算術的分布演算に基づくネットワーク層を提案する最初の方法である。
関連論文リスト
- Distributed Markov Chain Monte Carlo Sampling based on the Alternating
Direction Method of Multipliers [143.6249073384419]
本論文では,乗算器の交互方向法に基づく分散サンプリング手法を提案する。
我々は,アルゴリズムの収束に関する理論的保証と,その最先端性に関する実験的証拠の両方を提供する。
シミュレーションでは,線形回帰タスクとロジスティック回帰タスクにアルゴリズムを配置し,その高速収束を既存の勾配法と比較した。
論文 参考訳(メタデータ) (2024-01-29T02:08:40Z) - The Cascaded Forward Algorithm for Neural Network Training [61.06444586991505]
本稿では,ニューラルネットワークのための新しい学習フレームワークであるCascaded Forward(CaFo)アルゴリズムを提案する。
FFとは異なり、我々のフレームワークは各カスケードブロックのラベル分布を直接出力する。
我々のフレームワークでは、各ブロックは独立して訓練できるので、並列加速度システムに容易に展開できる。
論文 参考訳(メタデータ) (2023-03-17T02:01:11Z) - Scalable computation of prediction intervals for neural networks via
matrix sketching [79.44177623781043]
既存の不確実性推定アルゴリズムでは、モデルアーキテクチャとトレーニング手順を変更する必要がある。
本研究では、与えられたトレーニングされたニューラルネットワークに適用し、近似予測間隔を生成できる新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-06T13:18:31Z) - Deep learning via message passing algorithms based on belief propagation [2.931240348160871]
本稿では,局所的なエントロピー分布に偏りを持つ強化場を有するBPベースのメッセージパッシングアルゴリズムのファミリについて述べる。
これらのアルゴリズムは、SGDにインスパイアされたソリューションに匹敵するパフォーマンスで、離散重みとアクティベーションを持つ多層ニューラルネットワークをトレーニングすることができる。
論文 参考訳(メタデータ) (2021-10-27T16:52:26Z) - Hyperdimensional Computing for Efficient Distributed Classification with
Randomized Neural Networks [5.942847925681103]
本研究では,データを中央に保存することも共有することもできない状況下で利用できる分散分類について検討する。
ローカルな分類器を他のエージェントと共有する場合に、ロッキーな圧縮アプローチを適用することにより、分散分類のためのより効率的な解を提案する。
論文 参考訳(メタデータ) (2021-06-02T01:33:56Z) - Learning Structures for Deep Neural Networks [99.8331363309895]
我々は,情報理論に根ざし,計算神経科学に発達した効率的な符号化原理を採用することを提案する。
スパース符号化は出力信号のエントロピーを効果的に最大化できることを示す。
公開画像分類データセットを用いた実験により,提案アルゴリズムでスクラッチから学習した構造を用いて,最も優れた専門家設計構造に匹敵する分類精度が得られることを示した。
論文 参考訳(メタデータ) (2021-05-27T12:27:24Z) - Robust and integrative Bayesian neural networks for likelihood-free
parameter inference [0.0]
要約統計を学習するための最先端のニューラルネットワークベースの手法は、シミュレーションベースの確率自由パラメータ推論に有望な結果をもたらした。
本研究では,ベイズニューラルネットワークを用いて要約統計学を学習し,カテゴリー分布を用いて後部密度を直接推定する頑健な統合手法を提案する。
論文 参考訳(メタデータ) (2021-02-12T13:45:23Z) - Attentive Gaussian processes for probabilistic time-series generation [4.94950858749529]
本稿では,ガウス過程の回帰と組み合わせて実数値列を生成する,計算効率のよいアテンションベースネットワークを提案する。
我々は,GPがフルバッチを用いて訓練されている間,ネットワークのミニバッチトレーニングを可能にするブロックワイズトレーニングアルゴリズムを開発した。
アルゴリズムは収束することが証明され、より良くなくても、見いだされた解の品質に匹敵することを示す。
論文 参考訳(メタデータ) (2021-02-10T01:19:15Z) - Learned Factor Graphs for Inference from Stationary Time Sequences [107.63351413549992]
定常時間列のためのモデルベースアルゴリズムとデータ駆動型MLツールを組み合わせたフレームワークを提案する。
ニューラルネットワークは、時系列の分布を記述する因子グラフの特定のコンポーネントを別々に学習するために開発された。
本稿では,学習された定常因子グラフに基づく推論アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-05T07:06:19Z) - MSE-Optimal Neural Network Initialization via Layer Fusion [68.72356718879428]
ディープニューラルネットワークは、さまざまな分類と推論タスクに対して最先端のパフォーマンスを達成する。
グラデーションと非進化性の組み合わせは、学習を新しい問題の影響を受けやすいものにする。
確率変数を用いて学習した深層ネットワークの近傍層を融合する手法を提案する。
論文 参考訳(メタデータ) (2020-01-28T18:25:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。