論文の概要: Hyperdimensional Computing for Efficient Distributed Classification with
Randomized Neural Networks
- arxiv url: http://arxiv.org/abs/2106.00881v1
- Date: Wed, 2 Jun 2021 01:33:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-03 14:21:19.105906
- Title: Hyperdimensional Computing for Efficient Distributed Classification with
Randomized Neural Networks
- Title(参考訳): ランダムニューラルネットワークを用いた効率的な分散分類のための超次元計算
- Authors: Antonello Rosato, Massimo Panella, Denis Kleyko
- Abstract要約: 本研究では,データを中央に保存することも共有することもできない状況下で利用できる分散分類について検討する。
ローカルな分類器を他のエージェントと共有する場合に、ロッキーな圧縮アプローチを適用することにより、分散分類のためのより効率的な解を提案する。
- 参考スコア(独自算出の注目度): 5.942847925681103
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the supervised learning domain, considering the recent prevalence of
algorithms with high computational cost, the attention is steering towards
simpler, lighter, and less computationally extensive training and inference
approaches. In particular, randomized algorithms are currently having a
resurgence, given their generalized elementary approach. By using randomized
neural networks, we study distributed classification, which can be employed in
situations were data cannot be stored at a central location nor shared. We
propose a more efficient solution for distributed classification by making use
of a lossy compression approach applied when sharing the local classifiers with
other agents. This approach originates from the framework of hyperdimensional
computing, and is adapted herein. The results of experiments on a collection of
datasets demonstrate that the proposed approach has usually higher accuracy
than local classifiers and getting close to the benchmark - the centralized
classifier. This work can be considered as the first step towards analyzing the
variegated horizon of distributed randomized neural networks.
- Abstract(参考訳): 教師あり学習領域では、近年の計算コストの高いアルゴリズムの普及を考えると、よりシンプルで、より軽く、より計算量の多いトレーニングと推論のアプローチに注意が向けられている。
特に、一般化された基本的なアプローチを考えると、ランダム化アルゴリズムは現在復活している。
ランダム化されたニューラルネットワークを用いて、データを中央に保存することも共有することもできない状況下で使用できる分散分類を研究する。
本稿では,局所的分類器を他のエージェントと共有する場合に,損失の大きい圧縮手法を応用し,分散分類のより効率的な解法を提案する。
このアプローチは超次元コンピューティングの枠組みから始まり、ここで適応される。
データセットの集合に関する実験の結果、提案手法は通常、局所的な分類器よりも精度が高く、ベンチマーク(集中型分類器)に近づくことを示した。
この研究は、分散ランダム化ニューラルネットワークの変動地平線を分析するための第一歩と考えることができる。
関連論文リスト
- Distributionally Robust Machine Learning with Multi-source Data [6.383451076043423]
対象分布のクラスに対する説明分散に関する逆報酬を最適化するために,群分布に頑健な予測モデルを導入する。
従来の経験的リスク最小化と比較して,提案した頑健な予測モデルでは,分布シフトを伴う対象集団の予測精度が向上する。
ランダムな森林とニューラルネットワークをベースラーニングアルゴリズムとして用いたシミュレーションおよび実データに対して,提案したグループ分散ロバストな手法の性能を示す。
論文 参考訳(メタデータ) (2023-09-05T13:19:40Z) - Online Distributed Learning with Quantized Finite-Time Coordination [0.4910937238451484]
私たちの設定では、エージェントのセットは、ストリーミングデータから学習モデルを協調的にトレーニングする必要があります。
本稿では,量子化された有限時間協調プロトコルに依存する分散アルゴリズムを提案する。
提案アルゴリズムの性能を,オンラインソリューションからの平均距離の観点から解析する。
論文 参考訳(メタデータ) (2023-07-13T08:36:15Z) - The Cascaded Forward Algorithm for Neural Network Training [61.06444586991505]
本稿では,ニューラルネットワークのための新しい学習フレームワークであるCascaded Forward(CaFo)アルゴリズムを提案する。
FFとは異なり、我々のフレームワークは各カスケードブロックのラベル分布を直接出力する。
我々のフレームワークでは、各ブロックは独立して訓練できるので、並列加速度システムに容易に展開できる。
論文 参考訳(メタデータ) (2023-03-17T02:01:11Z) - Compound Batch Normalization for Long-tailed Image Classification [77.42829178064807]
本稿では,ガウス混合に基づく複合バッチ正規化法を提案する。
機能空間をより包括的にモデル化し、ヘッドクラスの優位性を減らすことができる。
提案手法は,画像分類における既存の手法よりも優れている。
論文 参考訳(メタデータ) (2022-12-02T07:31:39Z) - Large-Scale Sequential Learning for Recommender and Engineering Systems [91.3755431537592]
本稿では,現在の状況に適応してパーソナライズされたランキングを提供する自動アルゴリズムの設計に焦点を当てる。
前者はSAROSと呼ばれる新しいアルゴリズムを提案し,インタラクションの順序を学習するためのフィードバックの種類を考慮に入れている。
提案手法は, 電力網の故障検出に対する初期アプローチと比較して, 統計的に有意な結果を示す。
論文 参考訳(メタデータ) (2022-05-13T21:09:41Z) - Effective Out-of-Distribution Detection in Classifier Based on
PEDCC-Loss [5.614122064282257]
PEDCC-Loss を用いたアウト・オブ・ディストリビューション例の検出に有効なアルゴリズムを提案する。
PEDCC(Predefined Evenly-Distribution Class Centroids)分類器によって出力される信頼スコアの性質を数学的に解析する。
次に,より効果的なスコアリング機能を構築し,分布内(ID)と分布外(out-of-distriion)を区別する。
論文 参考訳(メタデータ) (2022-04-10T11:47:29Z) - Clustered Federated Learning via Generalized Total Variation
Minimization [83.26141667853057]
本研究では,分散ネットワーク構造を持つローカルデータセットの局所的(あるいはパーソナライズされた)モデルを学習するための最適化手法について検討する。
我々の主要な概念的貢献は、総変動最小化(GTV)としてフェデレーション学習を定式化することである。
私たちのアルゴリズムの主な貢献は、完全に分散化されたフェデレーション学習アルゴリズムです。
論文 参考訳(メタデータ) (2021-05-26T18:07:19Z) - Arithmetic Distribution Neural Network for Background Subtraction [7.09875977818162]
背景減算時における時間画素の分布を学習するための新しい算術分布ニューラルネットワーク(ADNN)を提案する。
提案手法はヒストグラムの確率情報を利用して有望な結果を得ることができる。
論文 参考訳(メタデータ) (2021-04-16T22:44:58Z) - Robust and integrative Bayesian neural networks for likelihood-free
parameter inference [0.0]
要約統計を学習するための最先端のニューラルネットワークベースの手法は、シミュレーションベースの確率自由パラメータ推論に有望な結果をもたらした。
本研究では,ベイズニューラルネットワークを用いて要約統計学を学習し,カテゴリー分布を用いて後部密度を直接推定する頑健な統合手法を提案する。
論文 参考訳(メタデータ) (2021-02-12T13:45:23Z) - Second-Order Guarantees in Centralized, Federated and Decentralized
Nonconvex Optimization [64.26238893241322]
単純なアルゴリズムは、多くの文脈において優れた経験的結果をもたらすことが示されている。
いくつかの研究は、非最適化問題を研究するための厳密な分析的正当化を追求している。
これらの分析における重要な洞察は、摂動が局所的な降下アルゴリズムを許容する上で重要な役割を担っていることである。
論文 参考訳(メタデータ) (2020-03-31T16:54:22Z) - Spatially Adaptive Inference with Stochastic Feature Sampling and
Interpolation [72.40827239394565]
スパースサンプリングされた場所のみの機能を計算することを提案する。
次に、効率的な手順で特徴写像を密に再構築する。
提案したネットワークは、様々なコンピュータビジョンタスクの精度を維持しながら、かなりの計算を省くために実験的に示されている。
論文 参考訳(メタデータ) (2020-03-19T15:36:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。