論文の概要: Operational Support Estimator Networks
- arxiv url: http://arxiv.org/abs/2307.06065v3
- Date: Thu, 2 May 2024 15:41:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-03 22:30:00.651859
- Title: Operational Support Estimator Networks
- Title(参考訳): 運用支援エミュレータネットワーク
- Authors: Mete Ahishali, Mehmet Yamac, Serkan Kiranyaz, Moncef Gabbouj,
- Abstract要約: 本稿では,OSEN(Operational Support Estimator Networks)と呼ばれる新しい手法を提案する。
提案したOSENアプローチは、ディープネットワークを必要とせずに複雑な非線形性を学ぶことができる運用層で構成されている。
実験の結果,提案手法は計算効率を向上し,競合する手法よりも優れていた。
- 参考スコア(独自算出の注目度): 20.63209309898005
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we propose a novel approach called Operational Support Estimator Networks (OSENs) for the support estimation task. Support Estimation (SE) is defined as finding the locations of non-zero elements in sparse signals. By its very nature, the mapping between the measurement and sparse signal is a non-linear operation. Traditional support estimators rely on computationally expensive iterative signal recovery techniques to achieve such non-linearity. Contrary to the convolutional layers, the proposed OSEN approach consists of operational layers that can learn such complex non-linearities without the need for deep networks. In this way, the performance of non-iterative support estimation is greatly improved. Moreover, the operational layers comprise so-called generative super neurons with non-local kernels. The kernel location for each neuron/feature map is optimized jointly for the SE task during training. We evaluate the OSENs in three different applications: i. support estimation from Compressive Sensing (CS) measurements, ii. representation-based classification, and iii. learning-aided CS reconstruction where the output of OSENs is used as prior knowledge to the CS algorithm for enhanced reconstruction. Experimental results show that the proposed approach achieves computational efficiency and outperforms competing methods, especially at low measurement rates by significant margins. The software implementation is shared at https://github.com/meteahishali/OSEN.
- Abstract(参考訳): 本研究では,OSEN(Operational Support Estimator Networks)と呼ばれる新しい手法を提案する。
サポート推定(SE)はスパース信号中のゼロでない要素の位置を見つけるものとして定義される。
その性質上、測定とスパース信号のマッピングは非線形演算である。
従来のサポート推定器は、そのような非線形性を達成するために計算コストのかかる反復的な信号回復技術に依存している。
畳み込み層とは対照的に、提案されたOSENアプローチは、深いネットワークを必要とせずに複雑な非線形性を学ぶことができる運用層で構成されている。
このようにして、非観念的サポート推定の性能が大幅に向上する。
さらに、オペレーショナルレイヤは、いわゆる生成スーパーニューロンと非局所カーネルから構成される。
各ニューロン/機能マップのカーネル位置は、トレーニング中のSEタスクに共同で最適化される。
我々はOSENを3つの異なるアプリケーションで評価する。
Compressive Sensing (CS) Measurement, ii。
表現に基づく分類、iii。
学習支援型CS再構成では,OSENの出力をCSアルゴリズムの事前知識として使用し,再現性を向上させる。
実験結果から,提案手法は計算効率が向上し,競合手法,特に有意なマージンによる低測定率で性能が向上することが示された。
ソフトウェアの実装はhttps://github.com/meteahishali/OSENで共有されている。
関連論文リスト
- YOSO: You-Only-Sample-Once via Compressed Sensing for Graph Neural Network Training [9.02251811867533]
YOSO(You-Only-Sample-Once)は、予測精度を維持しながら効率的なトレーニングを実現するアルゴリズムである。
YOSOは、正規直交基底計算のような従来の圧縮センシング(CS)法で高価な計算を避けるだけでなく、高い確率精度の保持も保証している。
論文 参考訳(メタデータ) (2024-11-08T16:47:51Z) - Unrolled denoising networks provably learn optimal Bayesian inference [54.79172096306631]
我々は、近似メッセージパッシング(AMP)のアンロールに基づくニューラルネットワークの最初の厳密な学習保証を証明した。
圧縮センシングでは、製品から引き出されたデータに基づいてトレーニングを行うと、ネットワークの層がベイズAMPで使用されるのと同じデノイザーに収束することを示す。
論文 参考訳(メタデータ) (2024-09-19T17:56:16Z) - Heterogenous Memory Augmented Neural Networks [84.29338268789684]
ニューラルネットワークのための新しいヘテロジニアスメモリ拡張手法を提案する。
学習可能なメモリトークンをアテンション機構付きで導入することにより、膨大な計算オーバーヘッドを伴わずに性能を効果的に向上させることができる。
In-distriion (ID) と Out-of-distriion (OOD) の両方の条件下での様々な画像およびグラフベースのタスクに対するアプローチを示す。
論文 参考訳(メタデータ) (2023-10-17T01:05:28Z) - Learning k-Level Structured Sparse Neural Networks Using Group Envelope Regularization [4.0554893636822]
制約のあるリソースに大規模ディープニューラルネットワークをデプロイするための新しいアプローチを導入する。
この手法は推論時間を短縮し、メモリ需要と消費電力を減らすことを目的とする。
論文 参考訳(メタデータ) (2022-12-25T15:40:05Z) - Representation Based Regression for Object Distance Estimation [27.507141762839208]
本研究では,検出された物体の距離を観測現場で予測する新しい手法を提案する。
提案手法は,最近提案されたCSEN(Convolutional Support Estimator Networks)を改良する。
論文 参考訳(メタデータ) (2021-06-27T11:45:54Z) - Random Features for the Neural Tangent Kernel [57.132634274795066]
完全接続型ReLUネットワークのニューラルタンジェントカーネル(NTK)の効率的な特徴マップ構築を提案する。
得られた特徴の次元は、理論と実践の両方で比較誤差境界を達成するために、他のベースライン特徴マップ構造よりもはるかに小さいことを示しています。
論文 参考訳(メタデータ) (2021-04-03T09:08:12Z) - Parallelization Techniques for Verifying Neural Networks [52.917845265248744]
検証問題に基づくアルゴリズムを反復的に導入し、2つの分割戦略を探索する。
また、ニューラルネットワークの検証問題を単純化するために、ニューロンアクティベーションフェーズを利用する、高度に並列化可能な前処理アルゴリズムも導入する。
論文 参考訳(メタデータ) (2020-04-17T20:21:47Z) - Convolutional Sparse Support Estimator Network (CSEN) From energy
efficient support estimation to learning-aided Compressive Sensing [25.91471358239267]
スパース信号のサポート推定(SE)はスパース表現における非ゼロ要素の位置指標を見つけることを指す。
本研究では,そのようなマッピングをトレーニングセットから学習するための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2020-03-02T11:18:35Z) - Denoising IMU Gyroscopes with Deep Learning for Open-Loop Attitude
Estimation [0.0]
本稿では,慣性計測ユニット(IMU)のジャイロスコープを地中真実データを用いて識別する学習手法を提案する。
得られたアルゴリズムは、(目に見えない)テストシーケンスで最先端の処理を行う。
論文 参考訳(メタデータ) (2020-02-25T08:04:31Z) - Large-Scale Gradient-Free Deep Learning with Recursive Local
Representation Alignment [84.57874289554839]
大規模データセット上でディープニューラルネットワークをトレーニングするには、重要なハードウェアリソースが必要である。
これらのネットワークをトレーニングするためのワークホースであるバックプロパゲーションは、本質的に並列化が難しいシーケンシャルなプロセスである。
本稿では、深層ネットワークのトレーニングに使用できるバックプロップに代わる、神経生物学的に有望な代替手段を提案する。
論文 参考訳(メタデータ) (2020-02-10T16:20:02Z) - MSE-Optimal Neural Network Initialization via Layer Fusion [68.72356718879428]
ディープニューラルネットワークは、さまざまな分類と推論タスクに対して最先端のパフォーマンスを達成する。
グラデーションと非進化性の組み合わせは、学習を新しい問題の影響を受けやすいものにする。
確率変数を用いて学習した深層ネットワークの近傍層を融合する手法を提案する。
論文 参考訳(メタデータ) (2020-01-28T18:25:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。