論文の概要: Low-Complexity Set-Membership Normalized LMS Algorithm for Sparse System
Modeling
- arxiv url: http://arxiv.org/abs/2007.06097v1
- Date: Sun, 12 Jul 2020 20:56:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 06:14:26.175580
- Title: Low-Complexity Set-Membership Normalized LMS Algorithm for Sparse System
Modeling
- Title(参考訳): スパースシステムモデリングのための低複素集合体正規化LMSアルゴリズム
- Authors: Javad Sharafi and Mohsen Mehrali-Varjani
- Abstract要約: 本稿では, 未知のシステムの空間性を利用するために, 2つの低複雑さな集合メンバーシップ正規化最小二乗法 (LCSM-NLMS1 と LCSM-NLMS2) アルゴリズムを提案する。
数値計算の結果、これらのアルゴリズムを最先端の空間認識アルゴリズムと比較した場合に類似した性能を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we propose two low-complexity set-membership normalized
least-mean-square (LCSM-NLMS1 and LCSM-NLMS2) algorithms to exploit the
sparsity of an unknown system. For this purpose, in the LCSM-NLMS1 algorithm,
we employ a function called the discard function to the adaptive coefficients
in order to neglect the coefficients close to zero in the update process.
Moreover, in the LCSM-NLMS2 algorithm, to decrease the overall number of
computations needed even further, we substitute small coefficients with zero.
Numerical results present similar performance of these algorithms when
comparing them with some state-of-the-art sparsity-aware algorithms, whereas
the proposed algorithms need lower computational cost.
- Abstract(参考訳): 本研究では, 未知系の疎結合性を利用するために, 2つの低複雑さな集合列正規化最小二乗法 (LCSM-NLMS1 と LCSM-NLMS2) アルゴリズムを提案する。
この目的のために、LCSM-NLMS1アルゴリズムでは、更新プロセスにおいてゼロに近い係数を無視するために、適応係数にディスカード関数と呼ばれる関数を用いる。
さらに,LCSM-NLMS2アルゴリズムでは,計算量を大幅に削減するため,小係数を0で置き換える。
提案アルゴリズムは計算コストの低減を要求されるのに対し,数値計算の結果はこれらのアルゴリズムを最先端の空間認識アルゴリズムと比較した場合に類似した性能を示す。
関連論文リスト
- A Learned Proximal Alternating Minimization Algorithm and Its Induced Network for a Class of Two-block Nonconvex and Nonsmooth Optimization [4.975853671529418]
本研究では,学習可能な2ブロック非平滑問題の解法として,一般学習型交互最小化アルゴリズムLPAMを提案する。
提案するLPAM-netはパラメータ効率が高く,いくつかの最先端手法と比較して良好な性能を示す。
論文 参考訳(メタデータ) (2024-11-10T02:02:32Z) - Sample-Efficient Multi-Agent RL: An Optimization Perspective [103.35353196535544]
一般関数近似に基づく汎用マルコフゲーム(MG)のためのマルチエージェント強化学習(MARL)について検討した。
汎用MGに対するマルチエージェントデカップリング係数(MADC)と呼ばれる新しい複雑性尺度を導入する。
我々のアルゴリズムは既存の研究に匹敵するサブリニアな後悔を与えることを示す。
論文 参考訳(メタデータ) (2023-10-10T01:39:04Z) - Representation Learning with Multi-Step Inverse Kinematics: An Efficient
and Optimal Approach to Rich-Observation RL [106.82295532402335]
既存の強化学習アルゴリズムは、計算的難易度、強い統計的仮定、最適なサンプルの複雑さに悩まされている。
所望の精度レベルに対して、レート最適サンプル複雑性を実現するための、最初の計算効率の良いアルゴリズムを提供する。
我々のアルゴリズムMusIKは、多段階の逆運動学に基づく表現学習と体系的な探索を組み合わせる。
論文 参考訳(メタデータ) (2023-04-12T14:51:47Z) - Improved Algorithms for Neural Active Learning [74.89097665112621]
非パラメトリックストリーミング設定のためのニューラルネットワーク(NN)ベースの能動学習アルゴリズムの理論的および経験的性能を改善する。
本研究では,SOTA(State-of-the-art (State-the-art)) 関連研究で使用されるものよりも,アクティブラーニングに適する人口減少を最小化することにより,2つの後悔の指標を導入する。
論文 参考訳(メタデータ) (2022-10-02T05:03:38Z) - Two Bicomplex and One Multicomplex Least Mean Square algorithms [0.0]
我々は1960年にWidrow and Hoff for Adaptive Linear Neuron (ADALINE)によって発明されたLMSアルゴリズムにインスパイアされた新しい勾配演算子を紹介する。
これらの勾配演算子は、両複素最小平均平方(BLMS)アルゴリズムの新しい学習規則を定式化するために使用され、また、多複素LMSアルゴリズム(MLMS)の場合、これらの学習規則を定式化する。
論文 参考訳(メタデータ) (2022-09-24T01:16:51Z) - Optimization-based Block Coordinate Gradient Coding for Mitigating
Partial Stragglers in Distributed Learning [58.91954425047425]
本稿では,分散学習における部分トラグラーの緩和を目的とした,新たな勾配符号化方式を提案する。
L の符号パラメータを L に表わした勾配座標符号化方式を提案する。
論文 参考訳(メタデータ) (2022-06-06T09:25:40Z) - Fast Projected Newton-like Method for Precision Matrix Estimation under
Total Positivity [15.023842222803058]
現在のアルゴリズムはブロック座標降下法や近点アルゴリズムを用いて設計されている。
本稿では,2次元投影法に基づく新しいアルゴリズムを提案し,慎重に設計された探索方向と変数分割方式を取り入れた。
合成および実世界のデータセットに対する実験結果から,提案アルゴリズムは最先端の手法と比較して計算効率を著しく向上させることを示した。
論文 参考訳(メタデータ) (2021-12-03T14:39:10Z) - An Exact Algorithm for Semi-supervised Minimum Sum-of-Squares Clustering [0.5801044612920815]
半教師付きMSSCのための分岐結合アルゴリズムを提案する。
背景知識はペアワイズ・マスタリンクと結びつかない制約として組み込まれている。
提案したグローバル最適化アルゴリズムは,実世界のインスタンスを最大800個のデータポイントまで効率的に解決する。
論文 参考訳(メタデータ) (2021-11-30T17:08:53Z) - Lower Bounds and Optimal Algorithms for Smooth and Strongly Convex
Decentralized Optimization Over Time-Varying Networks [79.16773494166644]
通信ネットワークのノード間を分散的に保存するスムーズで強い凸関数の和を最小化するタスクについて検討する。
我々は、これらの下位境界を達成するための2つの最適アルゴリズムを設計する。
我々は,既存の最先端手法と実験的な比較を行うことにより,これらのアルゴリズムの理論的効率を裏付ける。
論文 参考訳(メタデータ) (2021-06-08T15:54:44Z) - Iterative Algorithm Induced Deep-Unfolding Neural Networks: Precoding
Design for Multiuser MIMO Systems [59.804810122136345]
本稿では,AIIDNN(ディープ・アンフォールディング・ニューラルネット)を一般化した,ディープ・アンフォールディングのためのフレームワークを提案する。
古典的重み付き最小二乗誤差(WMMSE)反復アルゴリズムの構造に基づく効率的なIAIDNNを提案する。
提案したIAIDNNは,計算複雑性を低減した反復WMMSEアルゴリズムの性能を効率よく向上することを示す。
論文 参考訳(メタデータ) (2020-06-15T02:57:57Z) - A Robust Matching Pursuit Algorithm Using Information Theoretic Learning [37.968665739578185]
情報理論学習(ITL)に基づく新しいOMPアルゴリズムの開発
シミュレーションおよび実世界の両方のデータに対する実験結果は、データ復元、画像再構成、分類において提案したOMPアルゴリズムの優位性を一貫して示している。
論文 参考訳(メタデータ) (2020-05-10T01:36:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。