論文の概要: Deep Filtering with DNN, CNN and RNN
- arxiv url: http://arxiv.org/abs/2112.12616v1
- Date: Sun, 19 Dec 2021 03:56:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-24 16:20:09.682128
- Title: Deep Filtering with DNN, CNN and RNN
- Title(参考訳): DNN, CNN, RNNによるディープフィルタ
- Authors: Bin Xie, Qing Zhang
- Abstract要約: 我々は、名目力学モデルから生成されたモンテカルロサンプルを用いてニューラルネットワークを訓練する。
ネットワーク重みは実際の動的モデルからモンテカルロのサンプルに適用される。
我々のディープフィルタは、線形の場合の従来のカルマンフィルタと比較し、非線形の場合の拡張カルマンフィルタよりも優れている。
- 参考スコア(独自算出の注目度): 24.62272016568392
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper is about a deep learning approach for linear and nonlinear
filtering. The idea is to train a neural network with Monte Carlo samples
generated from a nominal dynamic model. Then the network weights are applied to
Monte Carlo samples from an actual dynamic model. A main focus of this paper is
on the deep filters with three major neural network architectures (DNN, CNN,
RNN). Our deep filter compares favorably to the traditional Kalman filter in
linear cases and outperform the extended Kalman filter in nonlinear cases. Then
a switching model with jumps is studied to show the adaptiveness and power of
our deep filtering. Among the three major NNs, the CNN outperform the others on
average. while the RNN does not seem to be suitable for the filtering problem.
One advantage of the deep filter is its robustness when the nominal model and
actual model differ. The other advantage of deep filtering is real data can be
used directly to train the deep neutral network. Therefore, model calibration
can be by-passed all together.
- Abstract(参考訳): 本稿では,線形および非線形フィルタリングのための深層学習手法について述べる。
そのアイデアは、名目力学モデルから生成されたモンテカルロサンプルでニューラルネットワークをトレーニングすることにある。
次に、実際の動的モデルからモンテカルロサンプルにネットワークウェイトを適用する。
本稿では,3つの主要なニューラルネットワークアーキテクチャ(DNN,CNN,RNN)を持つディープフィルタに注目した。
ディープフィルタは,線形の場合では従来のカルマンフィルタと比較し,非線形の場合では拡張カルマンフィルタよりも優れる。
次に,ジャンプを伴うスイッチングモデルを用いて,深層フィルタリングの適応性とパワーを示す。
3つの主要なnnのうち、cnnは他のnnより平均上である。
しかし、RNNはフィルタリング問題には適していないようだ。
深層フィルタの利点の一つは、名目モデルと実モデルが異なる場合の頑健性である。
深層フィルタリングのもう1つの利点は、深層中立ネットワークを直接トレーニングするために、実データを使うことができることである。
したがって、モデルキャリブレーションは全体としてバイパスすることができる。
関連論文リスト
- The Power of Linear Combinations: Learning with Random Convolutions [2.0305676256390934]
現代のCNNは、ランダムな(空間的な)畳み込みフィルタを更新することなく、高いテスト精度を達成することができる。
これらのランダムフィルタの組み合わせは、結果の操作を暗黙的に正規化することができる。
私たちは3ドル3セントの畳み込みを学習することで比較的小さな利益しか得られないが、学習率はカーネルサイズに比例して増加する。
論文 参考訳(メタデータ) (2023-01-26T19:17:10Z) - Learning Versatile Convolution Filters for Efficient Visual Recognition [125.34595948003745]
本稿では,効率的な畳み込みニューラルネットワーク構築のための多目的フィルタを提案する。
本稿では,ネットワークの複雑性に関する理論的解析を行い,効率的な畳み込み手法を提案する。
ベンチマークデータセットとニューラルネットワークの実験結果は、我々の汎用フィルタが元のフィルタと同等の精度を達成できることを実証している。
論文 参考訳(メタデータ) (2021-09-20T06:07:14Z) - DNN-Based Topology Optimisation: Spatial Invariance and Neural Tangent
Kernel [7.106986689736828]
完全に接続されたニューラルネットワークによって生成される密度場を用いてSIMP法について検討し,その座標を入力とする。
我々は,DNNの使用が従来のSIMPのフィルタリング手法と類似したフィルタリング効果をもたらすことを示し,ニューラル・タンジェント・カーネル(NTK)によるフィルタについて述べる。
論文 参考訳(メタデータ) (2021-06-10T12:49:55Z) - Graph Neural Networks with Adaptive Frequency Response Filter [55.626174910206046]
適応周波数応答フィルタを用いたグラフニューラルネットワークフレームワークAdaGNNを開発した。
提案手法の有効性を,様々なベンチマークデータセット上で実証的に検証した。
論文 参考訳(メタデータ) (2021-04-26T19:31:21Z) - Training Interpretable Convolutional Neural Networks by Differentiating
Class-specific Filters [64.46270549587004]
畳み込みニューラルネットワーク(CNN)は、様々なタスクでうまく使われている。
CNNは、しばしば「ブラックボックス」と解釈可能性の欠如とみなされる。
本稿では,クラス固有のフィルタを奨励することで,解釈可能なCNNを訓練する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-07-16T09:12:26Z) - Filter Grafting for Deep Neural Networks: Reason, Method, and
Cultivation [86.91324735966766]
フィルタは現代の畳み込みニューラルネットワーク(CNN)のキーコンポーネントである
本稿では,この目的を達成するためにフィルタグラフト(textbfMethod)を導入する。
我々は,フィルタの情報を測定するための新しい基準と,グラフトされた情報をネットワーク間でバランスをとるための適応重み付け戦略を開発する。
論文 参考訳(メタデータ) (2020-04-26T08:36:26Z) - Filter Grafting for Deep Neural Networks [71.39169475500324]
ディープニューラルネットワーク(DNN)の表現能力向上を目的としたフィルタグラフト
我々は,フィルタの情報を測定するエントロピーベースの基準と,ネットワーク間のグラフト情報のバランスをとるための適応重み付け戦略を開発する。
例えば、グラフトされたMobileNetV2は、CIFAR-100データセットで非グラフトされたMobileNetV2を約7%上回っている。
論文 参考訳(メタデータ) (2020-01-15T03:18:57Z) - Approximation and Non-parametric Estimation of ResNet-type Convolutional
Neural Networks [52.972605601174955]
本稿では,ResNet型CNNが重要な関数クラスにおいて最小誤差率を達成可能であることを示す。
Barron と H'older のクラスに対する前述のタイプの CNN の近似と推定誤差率を導出する。
論文 参考訳(メタデータ) (2019-03-24T19:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。