論文の概要: Operational Support Estimator Networks
- arxiv url: http://arxiv.org/abs/2307.06065v2
- Date: Thu, 13 Jul 2023 09:50:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-14 10:14:32.513822
- Title: Operational Support Estimator Networks
- Title(参考訳): 運用支援推定ネットワーク
- Authors: Mete Ahishali, Mehmet Yamac, Serkan Kiranyaz, Moncef Gabbouj
- Abstract要約: 本稿では,OSEN(Operational Support Estimator Networks)と呼ばれる新しい手法を提案する。
提案したOSENアプローチは、ディープネットワークを必要とせずに複雑な非線形性を学ぶことができる運用層で構成されている。
実験の結果,提案手法は計算効率を向上し,競合する手法よりも優れていた。
- 参考スコア(独自算出の注目度): 25.91471358239267
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we propose a novel approach called Operational Support
Estimator Networks (OSENs) for the support estimation task. Support Estimation
(SE) is defined as finding the locations of non-zero elements in a sparse
signal. By its very nature, the mapping between the measurement and sparse
signal is a non-linear operation. Traditional support estimators rely on
computationally expensive iterative signal recovery techniques to achieve such
non-linearity. Contrary to the convolution layers, the proposed OSEN approach
consists of operational layers that can learn such complex non-linearities
without the need for deep networks. In this way, the performance of the
non-iterative support estimation is greatly improved. Moreover, the operational
layers comprise so-called generative \textit{super neurons} with non-local
kernels. The kernel location for each neuron/feature map is optimized jointly
for the SE task during the training. We evaluate the OSENs in three different
applications: i. support estimation from Compressive Sensing (CS) measurements,
ii. representation-based classification, and iii. learning-aided CS
reconstruction where the output of OSENs is used as prior knowledge to the CS
algorithm for an enhanced reconstruction. Experimental results show that the
proposed approach achieves computational efficiency and outperforms competing
methods, especially at low measurement rates by a significant margin. The
software implementation is publicly shared at
https://github.com/meteahishali/OSEN.
- Abstract(参考訳): 本研究では,提案手法であるosens(operational support estimator networks)を提案する。
サポート推定(SE)はスパース信号における非ゼロ要素の位置を見つけるものとして定義される。
その性質上、測定とスパース信号のマッピングは非線形演算である。
従来の支援推定器は、そのような非線形性を達成するために計算コストの高い反復信号回復技術に依存している。
畳み込み層とは対照的に、提案されたOSENアプローチは、深いネットワークを必要としない複雑な非線形性を学ぶことができる運用層で構成されている。
これにより、非観念的サポート推定の性能が大幅に向上する。
さらに、操作層は、非局所カーネルといわゆる生成的 \textit{super neurons} から構成される。
各ニューロン/機能マップのカーネル位置は、トレーニング中にSEタスクに共同で最適化される。
我々はosensを3つの異なるアプリケーションで評価する。
圧縮センシング(cs)測定からの支持推定(ii)
表現に基づく分類,およびiii。
学習支援型CS再構成では,OSENの出力をCSアルゴリズムの事前知識として使用し,改良された再構成を行う。
実験結果から,提案手法は計算効率を向上し,特に低測定率での競合手法よりも優れることがわかった。
ソフトウェアの実装はhttps://github.com/meteahishali/osenで公開されている。
関連論文リスト
- YOSO: You-Only-Sample-Once via Compressed Sensing for Graph Neural Network Training [9.02251811867533]
YOSO(You-Only-Sample-Once)は、予測精度を維持しながら効率的なトレーニングを実現するアルゴリズムである。
YOSOは、正規直交基底計算のような従来の圧縮センシング(CS)法で高価な計算を避けるだけでなく、高い確率精度の保持も保証している。
論文 参考訳(メタデータ) (2024-11-08T16:47:51Z) - Unrolled denoising networks provably learn optimal Bayesian inference [54.79172096306631]
我々は、近似メッセージパッシング(AMP)のアンロールに基づくニューラルネットワークの最初の厳密な学習保証を証明した。
圧縮センシングでは、製品から引き出されたデータに基づいてトレーニングを行うと、ネットワークの層がベイズAMPで使用されるのと同じデノイザーに収束することを示す。
論文 参考訳(メタデータ) (2024-09-19T17:56:16Z) - Heterogenous Memory Augmented Neural Networks [84.29338268789684]
ニューラルネットワークのための新しいヘテロジニアスメモリ拡張手法を提案する。
学習可能なメモリトークンをアテンション機構付きで導入することにより、膨大な計算オーバーヘッドを伴わずに性能を効果的に向上させることができる。
In-distriion (ID) と Out-of-distriion (OOD) の両方の条件下での様々な画像およびグラフベースのタスクに対するアプローチを示す。
論文 参考訳(メタデータ) (2023-10-17T01:05:28Z) - Learning k-Level Structured Sparse Neural Networks Using Group Envelope Regularization [4.0554893636822]
制約のあるリソースに大規模ディープニューラルネットワークをデプロイするための新しいアプローチを導入する。
この手法は推論時間を短縮し、メモリ需要と消費電力を減らすことを目的とする。
論文 参考訳(メタデータ) (2022-12-25T15:40:05Z) - Representation Based Regression for Object Distance Estimation [27.507141762839208]
本研究では,検出された物体の距離を観測現場で予測する新しい手法を提案する。
提案手法は,最近提案されたCSEN(Convolutional Support Estimator Networks)を改良する。
論文 参考訳(メタデータ) (2021-06-27T11:45:54Z) - Random Features for the Neural Tangent Kernel [57.132634274795066]
完全接続型ReLUネットワークのニューラルタンジェントカーネル(NTK)の効率的な特徴マップ構築を提案する。
得られた特徴の次元は、理論と実践の両方で比較誤差境界を達成するために、他のベースライン特徴マップ構造よりもはるかに小さいことを示しています。
論文 参考訳(メタデータ) (2021-04-03T09:08:12Z) - Parallelization Techniques for Verifying Neural Networks [52.917845265248744]
検証問題に基づくアルゴリズムを反復的に導入し、2つの分割戦略を探索する。
また、ニューラルネットワークの検証問題を単純化するために、ニューロンアクティベーションフェーズを利用する、高度に並列化可能な前処理アルゴリズムも導入する。
論文 参考訳(メタデータ) (2020-04-17T20:21:47Z) - Convolutional Sparse Support Estimator Network (CSEN) From energy
efficient support estimation to learning-aided Compressive Sensing [25.91471358239267]
スパース信号のサポート推定(SE)はスパース表現における非ゼロ要素の位置指標を見つけることを指す。
本研究では,そのようなマッピングをトレーニングセットから学習するための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2020-03-02T11:18:35Z) - Denoising IMU Gyroscopes with Deep Learning for Open-Loop Attitude
Estimation [0.0]
本稿では,慣性計測ユニット(IMU)のジャイロスコープを地中真実データを用いて識別する学習手法を提案する。
得られたアルゴリズムは、(目に見えない)テストシーケンスで最先端の処理を行う。
論文 参考訳(メタデータ) (2020-02-25T08:04:31Z) - Large-Scale Gradient-Free Deep Learning with Recursive Local
Representation Alignment [84.57874289554839]
大規模データセット上でディープニューラルネットワークをトレーニングするには、重要なハードウェアリソースが必要である。
これらのネットワークをトレーニングするためのワークホースであるバックプロパゲーションは、本質的に並列化が難しいシーケンシャルなプロセスである。
本稿では、深層ネットワークのトレーニングに使用できるバックプロップに代わる、神経生物学的に有望な代替手段を提案する。
論文 参考訳(メタデータ) (2020-02-10T16:20:02Z) - MSE-Optimal Neural Network Initialization via Layer Fusion [68.72356718879428]
ディープニューラルネットワークは、さまざまな分類と推論タスクに対して最先端のパフォーマンスを達成する。
グラデーションと非進化性の組み合わせは、学習を新しい問題の影響を受けやすいものにする。
確率変数を用いて学習した深層ネットワークの近傍層を融合する手法を提案する。
論文 参考訳(メタデータ) (2020-01-28T18:25:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。