論文の概要: Sparse Array Selection Across Arbitrary Sensor Geometries with Deep
Transfer Learning
- arxiv url: http://arxiv.org/abs/2004.11637v2
- Date: Tue, 2 Jun 2020 07:40:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-10 04:27:01.295915
- Title: Sparse Array Selection Across Arbitrary Sensor Geometries with Deep
Transfer Learning
- Title(参考訳): ディープトランスファー学習による任意のセンサジオメトリ間のスパースアレイ選択
- Authors: Ahmet M. Elbir and Kumar Vijay Mishra
- Abstract要約: スパースセンサアレイの選択は多くの工学的応用で発生し、限られた配列要素から最大空間分解能を得る必要がある。
近年の研究では、従来の最適化法と欲求探索法をディープラーニングネットワークに置き換えることで、配列選択の計算複雑性が低減されていることが示されている。
我々は、深層移動学習(TL)アプローチを採用し、キャリブレーションされたデータを容易に利用できるソースセンサアレイのデータを用いて深部畳み込みニューラルネットワーク(CNN)を訓練し、この事前学習されたCNNを、異なるデータ不十分なターゲットアレイ幾何学のために再利用する。
均一長方形及び円形アレイを用いた数値実験によるTLの性能向上
- 参考スコア(独自算出の注目度): 22.51807198305316
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sparse sensor array selection arises in many engineering applications, where
it is imperative to obtain maximum spatial resolution from a limited number of
array elements. Recent research shows that computational complexity of array
selection is reduced by replacing the conventional optimization and greedy
search methods with a deep learning network. However, in practice, sufficient
and well-calibrated labeled training data are unavailable and, more so, for
arbitrary array configurations. To address this, we adopt a deep transfer
learning (TL) approach, wherein we train a deep convolutional neural network
(CNN) with data of a source sensor array for which calibrated data are readily
available and reuse this pre-trained CNN for a different, data-insufficient
target array geometry to perform sparse array selection. Numerical experiments
with uniform rectangular and circular arrays demonstrate enhanced performance
of TL-CNN on the target model than the CNN trained with insufficient data from
the same model. In particular, our TL framework provides approximately 20%
higher sensor selection accuracy and 10% improvement in the
direction-of-arrival estimation error.
- Abstract(参考訳): スパースセンサアレイの選択は多くの工学的応用で発生し、限られた配列要素から最大空間分解能を得る必要がある。
近年の研究では、従来の最適化法と欲求探索法をディープラーニングネットワークに置き換えることで、配列選択の計算複雑性を低減している。
しかしながら、実際には十分な十分なラベル付きトレーニングデータは使用不可能であり、任意の配列構成ではより有効である。
そこで我々は,データキャリブレーションが容易なソースセンサアレイのデータを用いて,深層畳み込みニューラルネットワーク(cnn,deep convolutional neural network)を訓練し,この事前学習されたcnnを,異なるデータ不足対象配列形状に対して再利用してスパース配列選択を行う。
一様長方形と円形の配列を用いた数値実験により、同じモデルから不十分なデータで訓練されたcnnよりもターゲットモデルでのtl-cnnの性能が向上した。
特に,我々のTLフレームワークでは,センサ選択精度が約20%向上し,入力方向推定誤差が10%向上した。
関連論文リスト
- DCP: Learning Accelerator Dataflow for Neural Network via Propagation [52.06154296196845]
この研究は、DNN層の最適なデータフローを人間の努力なしに数秒で自動的に見つけるために、Dataflow Code Propagation (DCP)と呼ばれる効率的なデータ中心のアプローチを提案する。
DCPは、様々な最適化目標を最小化するために、望ましい勾配方向に向けてデータフローコードを効率的に更新する神経予測器を学習する。
例えば、追加のトレーニングデータを使用しないDCPは、数千のサンプルを使用して完全な検索を行うGAMAメソッドを超越している。
論文 参考訳(メタデータ) (2024-10-09T05:16:44Z) - A distributed neural network architecture for dynamic sensor selection
with application to bandwidth-constrained body-sensor networks [53.022158485867536]
ディープニューラルネットワーク(DNN)のための動的センサ選択手法を提案する。
データセット全体の固定選択ではなく、個々の入力サンプルに対して最適なセンササブセット選択を導出することができる。
無線センサネットワーク(WSN)の寿命を、各ノードの送信頻度に制約を加えることで、この動的選択をいかに利用できるかを示す。
論文 参考訳(メタデータ) (2023-08-16T14:04:50Z) - Sparse Array Design for Direction Finding using Deep Learning [19.061021605579683]
疎配列を設計するための深層学習(DL)技術が導入されている。
この章では、DLベースのスパースアレイの応用について、いくつかの方向の合成を行っている。
論文 参考訳(メタデータ) (2023-08-08T22:45:48Z) - Multidimensional analysis using sensor arrays with deep learning for
high-precision and high-accuracy diagnosis [0.0]
本研究では,DNN(Deep Neural Network)を低コストで高精度なセンサアレイのデータに入力することにより,測定精度と精度を大幅に向上させることが実証された。
データ収集は、32個の温度センサーで構成され、16個のアナログと16個のデジタルセンサーで構成されている。
論文 参考訳(メタデータ) (2022-11-30T16:14:55Z) - Variable Bitrate Neural Fields [75.24672452527795]
本稿では,特徴格子を圧縮し,メモリ消費を最大100倍に削減する辞書手法を提案する。
辞書の最適化をベクトル量子化オートデコーダ問題として定式化し、直接監督できない空間において、エンドツーエンドの離散神経表現を学習する。
論文 参考訳(メタデータ) (2022-06-15T17:58:34Z) - Variational Sparse Coding with Learned Thresholding [6.737133300781134]
サンプルをしきい値にすることでスパース分布を学習できる変分スパース符号化の新しい手法を提案する。
まず,線形発生器を訓練し,その性能,統計的効率,勾配推定に優れることを示す。
論文 参考訳(メタデータ) (2022-05-07T14:49:50Z) - Generalized Learning Vector Quantization for Classification in
Randomized Neural Networks and Hyperdimensional Computing [4.4886210896619945]
本稿では,トレーニング中の計算コストの高い行列操作を回避する改良型RVFLネットワークを提案する。
提案手法は,UCI Machine Learning Repositoryから取得したデータセットの集合に対して,最先端の精度を達成した。
論文 参考訳(メタデータ) (2021-06-17T21:17:17Z) - Random Features for the Neural Tangent Kernel [57.132634274795066]
完全接続型ReLUネットワークのニューラルタンジェントカーネル(NTK)の効率的な特徴マップ構築を提案する。
得られた特徴の次元は、理論と実践の両方で比較誤差境界を達成するために、他のベースライン特徴マップ構造よりもはるかに小さいことを示しています。
論文 参考訳(メタデータ) (2021-04-03T09:08:12Z) - Ensembled sparse-input hierarchical networks for high-dimensional
datasets [8.629912408966145]
サンプルサイズが小さい環境では,高密度ニューラルネットワークが実用的なデータ解析ツールであることを示す。
提案手法は,L1-ペナルティパラメータを2つだけ調整することで,ネットワーク構造を適切に調整する。
EASIER-netは、異なるサイズの実世界のデータセットのコレクションにおいて、データ適応方式でネットワークアーキテクチャを選択し、平均的なオフザシェルフ手法よりも高い予測精度を達成した。
論文 参考訳(メタデータ) (2020-05-11T02:08:53Z) - Large-Scale Gradient-Free Deep Learning with Recursive Local
Representation Alignment [84.57874289554839]
大規模データセット上でディープニューラルネットワークをトレーニングするには、重要なハードウェアリソースが必要である。
これらのネットワークをトレーニングするためのワークホースであるバックプロパゲーションは、本質的に並列化が難しいシーケンシャルなプロセスである。
本稿では、深層ネットワークのトレーニングに使用できるバックプロップに代わる、神経生物学的に有望な代替手段を提案する。
論文 参考訳(メタデータ) (2020-02-10T16:20:02Z) - Self-Directed Online Machine Learning for Topology Optimization [58.920693413667216]
自己指向型オンライン学習最適化は、ディープニューラルネットワーク(DNN)と有限要素法(FEM)計算を統合している。
本アルゴリズムは, コンプライアンスの最小化, 流体構造最適化, 伝熱促進, トラス最適化の4種類の問題によって検証された。
その結果, 直接使用法と比較して計算時間を2~5桁削減し, 実験で検証した全ての最先端アルゴリズムより優れていた。
論文 参考訳(メタデータ) (2020-02-04T20:00:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。