論文の概要: One-Shot Federated Learning with Neuromorphic Processors
- arxiv url: http://arxiv.org/abs/2011.01813v1
- Date: Sun, 1 Nov 2020 16:47:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 23:03:59.300173
- Title: One-Shot Federated Learning with Neuromorphic Processors
- Title(参考訳): ニューロモルフィックプロセッサを用いたワンショットフェデレーション学習
- Authors: Kenneth Stewart and Yanqi Gu
- Abstract要約: ニューロモルフィックプロセッサにおけるフェデレーション学習の有効性を示す。
ニューロモルフィックプロセッサは協調学習の恩恵を受け、ワンショット学習ジェスチャー認識タスクにおける芸術的精度の達成を実現する。
- 参考スコア(独自算出の注目度): 1.0152838128195467
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Being very low power, the use of neuromorphic processors in mobile devices to
solve machine learning problems is a promising alternative to traditional Von
Neumann processors. Federated Learning enables entities such as mobile devices
to collaboratively learn a shared model while keeping their training data
local. Additionally, federated learning is a secure way of learning because
only the model weights need to be shared between models, keeping the data
private. Here we demonstrate the efficacy of federated learning in neuromorphic
processors. Neuromorphic processors benefit from the collaborative learning,
achieving state of the art accuracy on a one-shot learning gesture recognition
task across individual processor models while preserving local data privacy.
- Abstract(参考訳): 非常に低消費電力であるため、モバイルデバイスにおけるニューロモーフィックプロセッサを使用して機械学習問題を解決することは、従来のvon neumannプロセッサに代わる有望な選択肢である。
Federated Learningは、モバイルデバイスなどのエンティティが、トレーニングデータをローカルに保ちながら、共有モデルを共同で学習することを可能にする。
さらに、モデルの重みだけがモデル間で共有され、データをプライベートに保つ必要があるため、連合学習は安全な学習方法である。
本稿では,ニューロモルフィックプロセッサにおけるフェデレーション学習の有効性を示す。
ニューロモーフィックプロセッサは協調学習の恩恵を受け、ローカルデータのプライバシを維持しながら、個々のプロセッサモデルにまたがるワンショット学習ジェスチャ認識タスクにおいて、技術精度の状態を実現できる。
関連論文リスト
- Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - Incremental Online Learning Algorithms Comparison for Gesture and Visual
Smart Sensors [68.8204255655161]
本稿では,加速度センサデータに基づくジェスチャー認識と画像分類の2つの実例として,最先端の4つのアルゴリズムを比較した。
以上の結果から,これらのシステムの信頼性と小型メモリMCUへのデプロイの可能性が確認された。
論文 参考訳(メタデータ) (2022-09-01T17:05:20Z) - Certified Robustness in Federated Learning [54.03574895808258]
我々は,フェデレーショントレーニングとパーソナライゼーション,および認定ロバストネスの相互作用について検討した。
単純なフェデレーション平均化技術は, より正確であるだけでなく, より精度の高いロバストモデルの構築にも有効であることがわかった。
論文 参考訳(メタデータ) (2022-06-06T12:10:53Z) - Applied Federated Learning: Architectural Design for Robust and
Efficient Learning in Privacy Aware Settings [0.8454446648908585]
古典的な機械学習パラダイムは、中央にユーザーデータの集約を必要とする。
データの集中化は、内部および外部のセキュリティインシデントのリスクを高めることを含むリスクを引き起こす。
差分プライバシーによるフェデレーション学習は、サーバ側の集中化落とし穴を避けるように設計されている。
論文 参考訳(メタデータ) (2022-06-02T00:30:04Z) - FLHub: a Federated Learning model sharing service [0.7614628596146599]
機械学習モデルの共有サービスとしてフェデレートラーニングハブ(FLHub)を提案する。
FLHubを使えば、GitHubと同じように、他の開発者が開発したモデルをアップロード、ダウンロード、コントリビュートすることができる。
我々は、フォークモデルが既存のモデルよりも速くトレーニングを完了し、各フェデレートラウンドで学習がより高速に進行できることを実証した。
論文 参考訳(メタデータ) (2022-02-14T06:02:55Z) - A Personalized Federated Learning Algorithm: an Application in Anomaly
Detection [0.6700873164609007]
フェデレートラーニング(FL)は、データプライバシと送信問題を克服する有望な方法として最近登場した。
FLでは、異なるデバイスやセンサーから収集されたデータセットを使用して、各学習を集中型モデル(サーバ)と共有するローカルモデル(クライアント)をトレーニングする。
本稿では,PC-FedAvg(Personalized FedAvg, PC-FedAvg)を提案する。
論文 参考訳(メタデータ) (2021-11-04T04:57:11Z) - FedKD: Communication Efficient Federated Learning via Knowledge
Distillation [56.886414139084216]
フェデレーション学習は、分散データからインテリジェントモデルを学ぶために広く使用されている。
フェデレートラーニングでは、クライアントはモデルラーニングの各イテレーションでローカルモデルの更新を伝える必要がある。
本稿では,知識蒸留に基づくコミュニケーション効率のよいフェデレーション学習手法を提案する。
論文 参考訳(メタデータ) (2021-08-30T15:39:54Z) - Model-Contrastive Federated Learning [92.9075661456444]
フェデレーションラーニングにより、複数のパーティがローカルデータを伝達することなく、機械学習モデルを共同でトレーニングできます。
MOON:モデルコントラスト連合学習を提案します。
実験の結果,MOONは様々な画像分類タスクにおいて,他の最先端のフェデレーション学習アルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2021-03-30T11:16:57Z) - Decentralized Federated Learning Preserves Model and Data Privacy [77.454688257702]
我々は、訓練されたモデル間で知識を共有することができる、完全に分散化されたアプローチを提案する。
生徒は、合成された入力データを通じて教師の出力を訓練する。
その結果,教師が学習した未学習学生モデルが,教師と同等のF1スコアに達することがわかった。
論文 参考訳(メタデータ) (2021-02-01T14:38:54Z) - Additively Homomorphical Encryption based Deep Neural Network for
Asymmetrically Collaborative Machine Learning [12.689643742151516]
機械学習の保存は、金融セクターにおけるさらなる適用を制限する制約を生み出す。
我々は、ある当事者がデータを所有するが、別の当事者がラベルのみを所有する新しい協調機械学習の実践的手法を提案する。
異なるデータセットに対する我々の実験は、精度のない安定したトレーニングだけでなく、100倍以上のスピードアップも示しています。
論文 参考訳(メタデータ) (2020-07-14T06:43:25Z) - Brain-inspired global-local learning incorporated with neuromorphic
computing [35.70151531581922]
我々は,脳に触発されたメタラーニングパラダイムと,神経力学とシナプス可塑性を取り入れた識別可能なスパイキングモデルを導入することで,ニューロモルフィックハイブリッド学習モデルを報告した。
ニューロモルフィック・ビジョン・センサにおける数ショット学習、連続学習、フォールトトレランス学習を含む複数のタスクにおいて、このモデルの利点を実証する。
論文 参考訳(メタデータ) (2020-06-05T04:24:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。