論文の概要: One-Shot Federated Learning with Neuromorphic Processors
- arxiv url: http://arxiv.org/abs/2011.01813v1
- Date: Sun, 1 Nov 2020 16:47:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 23:03:59.300173
- Title: One-Shot Federated Learning with Neuromorphic Processors
- Title(参考訳): ニューロモルフィックプロセッサを用いたワンショットフェデレーション学習
- Authors: Kenneth Stewart and Yanqi Gu
- Abstract要約: ニューロモルフィックプロセッサにおけるフェデレーション学習の有効性を示す。
ニューロモルフィックプロセッサは協調学習の恩恵を受け、ワンショット学習ジェスチャー認識タスクにおける芸術的精度の達成を実現する。
- 参考スコア(独自算出の注目度): 1.0152838128195467
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Being very low power, the use of neuromorphic processors in mobile devices to
solve machine learning problems is a promising alternative to traditional Von
Neumann processors. Federated Learning enables entities such as mobile devices
to collaboratively learn a shared model while keeping their training data
local. Additionally, federated learning is a secure way of learning because
only the model weights need to be shared between models, keeping the data
private. Here we demonstrate the efficacy of federated learning in neuromorphic
processors. Neuromorphic processors benefit from the collaborative learning,
achieving state of the art accuracy on a one-shot learning gesture recognition
task across individual processor models while preserving local data privacy.
- Abstract(参考訳): 非常に低消費電力であるため、モバイルデバイスにおけるニューロモーフィックプロセッサを使用して機械学習問題を解決することは、従来のvon neumannプロセッサに代わる有望な選択肢である。
Federated Learningは、モバイルデバイスなどのエンティティが、トレーニングデータをローカルに保ちながら、共有モデルを共同で学習することを可能にする。
さらに、モデルの重みだけがモデル間で共有され、データをプライベートに保つ必要があるため、連合学習は安全な学習方法である。
本稿では,ニューロモルフィックプロセッサにおけるフェデレーション学習の有効性を示す。
ニューロモーフィックプロセッサは協調学習の恩恵を受け、ローカルデータのプライバシを維持しながら、個々のプロセッサモデルにまたがるワンショット学習ジェスチャ認識タスクにおいて、技術精度の状態を実現できる。
関連論文リスト
- Learn while Unlearn: An Iterative Unlearning Framework for Generative Language Models [49.043599241803825]
Iterative Contrastive Unlearning (ICU)フレームワークは3つのコアコンポーネントで構成されている。
知識未学習誘導モジュールは、未学習の損失を通じて特定の知識を除去する。
Contrastive Learning Enhancementモジュールは、純粋な未学習の目標に対してモデルの表現力を維持する。
また、特定のデータ片の未学習範囲を動的に評価し、反復的な更新を行う反復未学習リファインメントモジュールも用意されている。
論文 参考訳(メタデータ) (2024-07-25T07:09:35Z) - Update Selective Parameters: Federated Machine Unlearning Based on Model Explanation [46.86767774669831]
モデル説明の概念に基づく、より効率的で効率的なフェデレーション・アンラーニング・スキームを提案する。
我々は、未学習のデータに対して、すでに訓練済みのモデルの中で最も影響力のあるチャネルを選択します。
論文 参考訳(メタデータ) (2024-06-18T11:43:20Z) - Blind Federated Learning without initial model [1.104960878651584]
フェデレートラーニング(Federated Learning)は、独自のプライベートデータを持つ複数の参加者間のモデル構築を可能にする、新たな機械学習アプローチである。
この方法はセキュアでプライバシ保護であり、病院などの異なるソースからの機密データを使用して機械学習モデルをトレーニングするのに適している。
論文 参考訳(メタデータ) (2024-04-24T20:10:10Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - Certified Robustness in Federated Learning [54.03574895808258]
我々は,フェデレーショントレーニングとパーソナライゼーション,および認定ロバストネスの相互作用について検討した。
単純なフェデレーション平均化技術は, より正確であるだけでなく, より精度の高いロバストモデルの構築にも有効であることがわかった。
論文 参考訳(メタデータ) (2022-06-06T12:10:53Z) - Applied Federated Learning: Architectural Design for Robust and
Efficient Learning in Privacy Aware Settings [0.8454446648908585]
古典的な機械学習パラダイムは、中央にユーザーデータの集約を必要とする。
データの集中化は、内部および外部のセキュリティインシデントのリスクを高めることを含むリスクを引き起こす。
差分プライバシーによるフェデレーション学習は、サーバ側の集中化落とし穴を避けるように設計されている。
論文 参考訳(メタデータ) (2022-06-02T00:30:04Z) - FLHub: a Federated Learning model sharing service [0.7614628596146599]
機械学習モデルの共有サービスとしてフェデレートラーニングハブ(FLHub)を提案する。
FLHubを使えば、GitHubと同じように、他の開発者が開発したモデルをアップロード、ダウンロード、コントリビュートすることができる。
我々は、フォークモデルが既存のモデルよりも速くトレーニングを完了し、各フェデレートラウンドで学習がより高速に進行できることを実証した。
論文 参考訳(メタデータ) (2022-02-14T06:02:55Z) - Model-Contrastive Federated Learning [92.9075661456444]
フェデレーションラーニングにより、複数のパーティがローカルデータを伝達することなく、機械学習モデルを共同でトレーニングできます。
MOON:モデルコントラスト連合学習を提案します。
実験の結果,MOONは様々な画像分類タスクにおいて,他の最先端のフェデレーション学習アルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2021-03-30T11:16:57Z) - Decentralized Federated Learning Preserves Model and Data Privacy [77.454688257702]
我々は、訓練されたモデル間で知識を共有することができる、完全に分散化されたアプローチを提案する。
生徒は、合成された入力データを通じて教師の出力を訓練する。
その結果,教師が学習した未学習学生モデルが,教師と同等のF1スコアに達することがわかった。
論文 参考訳(メタデータ) (2021-02-01T14:38:54Z) - Brain-inspired global-local learning incorporated with neuromorphic
computing [35.70151531581922]
我々は,脳に触発されたメタラーニングパラダイムと,神経力学とシナプス可塑性を取り入れた識別可能なスパイキングモデルを導入することで,ニューロモルフィックハイブリッド学習モデルを報告した。
ニューロモルフィック・ビジョン・センサにおける数ショット学習、連続学習、フォールトトレランス学習を含む複数のタスクにおいて、このモデルの利点を実証する。
論文 参考訳(メタデータ) (2020-06-05T04:24:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。