論文の概要: Federated Nearest Neighbor Classification with a Colony of Fruit-Flies:
With Supplement
- arxiv url: http://arxiv.org/abs/2112.07157v1
- Date: Tue, 14 Dec 2021 04:38:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-16 03:53:19.952210
- Title: Federated Nearest Neighbor Classification with a Colony of Fruit-Flies:
With Supplement
- Title(参考訳): Fruit-Flies のコロニーを用いたFederated Nearest Neighbor 分類
- Authors: Parikshit Ram, Kaushik Sinha
- Abstract要約: 本稿では,このハッシュとブルームフィルタを新たに再プログラミングし,標準近傍分類器(NNC)をエミュレートするフェデレートラーニング(FL)方式を提案する。
具体的には、FlyhashとFBFを用いてFlyNN分類器を作成し、理論上FlyNNがNNCにマッチする条件を確立する。
FlyNNFLを生成するための通信オーバーヘッドの少ないFLセットアップにおいて、FlyNNが正確にトレーニングされているか、また、どのように差分プライベートになるかを示す。
- 参考スコア(独自算出の注目度): 15.102346715690755
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The mathematical formalization of a neurological mechanism in the olfactory
circuit of a fruit-fly as a locality sensitive hash (Flyhash) and bloom filter
(FBF) has been recently proposed and "reprogrammed" for various machine
learning tasks such as similarity search, outlier detection and text
embeddings. We propose a novel reprogramming of this hash and bloom filter to
emulate the canonical nearest neighbor classifier (NNC) in the challenging
Federated Learning (FL) setup where training and test data are spread across
parties and no data can leave their respective parties. Specifically, we
utilize Flyhash and FBF to create the FlyNN classifier, and theoretically
establish conditions where FlyNN matches NNC. We show how FlyNN is trained
exactly in a FL setup with low communication overhead to produce FlyNNFL, and
how it can be differentially private. Empirically, we demonstrate that (i)
FlyNN matches NNC accuracy across 70 OpenML datasets, (ii) FlyNNFL training is
highly scalable with low communication overhead, providing up to $8\times$
speedup with $16$ parties.
- Abstract(参考訳): 果実フライの嗅覚回路における神経学的機構を局所性感受性ハッシュ (Flyhash) とブルームフィルタ (FBF) として数学的に定式化し, 類似性探索, 外れ値検出, テキスト埋め込みなどの機械学習タスクに対して「再プログラム」を行った。
本稿では,このハッシュおよびブルームフィルタの新規な再プログラミング法を提案する。この手法は,学習データとテストデータが当事者間で分散し,各当事者からデータを残さずに分散学習 (fl) 環境において,正準最寄りの近傍分類器 (nnc) をエミュレートする。
具体的には、FlyhashとFBFを用いてFlyNN分類器を作成し、理論上FlyNNがNCと一致する条件を確立する。
FlyNNFLを生成するための通信オーバーヘッドの少ないFLセットアップにおいて、FlyNNが正確にトレーニングされているか、また、どのように差分プライベートになるかを示す。
実証的に言えば
(i)FlyNNは、70のOpenMLデータセットにNNC精度をマッチさせる。
(ii)FlyNNFLのトレーニングは、通信オーバーヘッドが低く、最大で$8\times$のスピードアップと$16$のパーティを提供する。
関連論文リスト
- Heterogeneous Federated Learning with Convolutional and Spiking Neural Networks [17.210940028586588]
フェデレートラーニング(FL)は、分散データ上でモデルをトレーニングするための有望なパラダイムとして登場した。
この研究は、CNN(Convoluntional Neural Network)とSNN(Biologically more plausible Spiking Neural Network)の両方を含むFLシステムのベンチマークを行う。
CNN-SNN融合フレームワークが最高の性能を示すことを示す実験結果が得られた。
論文 参考訳(メタデータ) (2024-06-14T03:05:05Z) - Fuzzy Convolution Neural Networks for Tabular Data Classification [0.0]
畳み込みニューラルネットワーク(CNN)は、様々な領域における顕著な性能のために、多くの注目を集めている。
本稿では,表データに適したファジィ畳み込みニューラルネットワーク(FCNN)を提案する。
論文 参考訳(メタデータ) (2024-06-04T20:33:35Z) - Model-Agnostic Federated Learning [2.0383173745487193]
非DNNのユースケースに対するMAFL(Model-Agnostic Federated Learning)を提案する。
MAFLは、モデルに依存しないFLアルゴリズムであるAdaBoost.Fと、オープンな業界グレードのFLフレームワークであるIntel OpenFLを結合する。
複数の視点からMAFLをテストし、その正確性、柔軟性、64ノードまでのスケーラビリティを評価します。
論文 参考訳(メタデータ) (2023-03-08T21:51:14Z) - Federated Nearest Neighbor Machine Translation [66.8765098651988]
本稿では,FedNN(FedNN)機械翻訳フレームワークを提案する。
FedNNは1ラウンドの記憶に基づくインタラクションを活用して、異なるクライアント間で知識を共有する。
実験の結果,FedAvgと比較して,FedNNは計算コストと通信コストを著しく削減することがわかった。
論文 参考訳(メタデータ) (2023-02-23T18:04:07Z) - TabPFN: A Transformer That Solves Small Tabular Classification Problems
in a Second [48.87527918630822]
トレーニングされたトランスフォーマーであるTabPFNは、小さなデータセットの教師付き分類を1秒以内で行うことができる。
TabPFNはコンテキスト内学習(ICL)を行い、ラベル付きサンプルのシーケンスを使用して予測を行う。
提案手法は, 強化木よりも明らかに優れており, 230$times$ Speedupの複雑なAutoMLシステムと同等性能を示す。
論文 参考訳(メタデータ) (2022-07-05T07:17:43Z) - Personalized Subgraph Federated Learning [56.52903162729729]
本稿では,新たなサブグラフFL問題,パーソナライズされたサブグラフFLを導入する。
本稿では,Federated Personalized sUBgraph Learning (FED-PUB)を提案する。
オーバーラップしないサブグラフとオーバーラップするサブグラフの両方を考慮して,FED-PUBのサブグラフFL性能を6つのデータセットで検証した。
論文 参考訳(メタデータ) (2022-06-21T09:02:53Z) - SlimFL: Federated Learning with Superposition Coding over Slimmable
Neural Networks [56.68149211499535]
フェデレートラーニング(FL)は、デバイスの分散コンピューティング機能を活用した効率的なコミュニケーションとコンピューティングのための重要な実現手段である。
本稿では、FLと幅調整可能なスリムブルニューラルネットワーク(SNN)を統合した新しい学習フレームワークを提案する。
局所モデル更新のためのグローバルモデル集約と重ね合わせ訓練(ST)に重ね合わせ符号化(SC)を併用した通信およびエネルギー効率の高いSNNベースFL(SlimFL)を提案する。
論文 参考訳(メタデータ) (2022-03-26T15:06:13Z) - Joint Superposition Coding and Training for Federated Learning over
Multi-Width Neural Networks [52.93232352968347]
本稿では,2つの相乗的技術,フェデレートラーニング(FL)と幅調整可能なスリムブルニューラルネットワーク(SNN)を統合することを目的とする。
FLは、ローカルに訓練されたモバイルデバイスのモデルを交換することによって、データのプライバシを保護している。しかしながら、SNNは、特に時間変化のあるチャネル条件との無線接続下では、非自明である。
局所モデル更新のためのグローバルモデル集約と重ね合わせ訓練(ST)に重ね合わせ符号化(SC)を併用した通信およびエネルギー効率の高いSNNベースFL(SlimFL)を提案する。
論文 参考訳(メタデータ) (2021-12-05T11:17:17Z) - Neural Neighborhood Encoding for Classification [19.015540611386665]
フルーツフライ嗅覚回路にインスパイアされたFly Bloom Filterは、データを単一のパスで効率的に要約することができる。
本研究では,クラスごとのFly Bloomフィルタを用いて,各クラスごとに異なる局所近傍を効果的に符号化する新しい分類器を提案する。
論文 参考訳(メタデータ) (2020-08-19T22:01:27Z) - Approximation and Non-parametric Estimation of ResNet-type Convolutional
Neural Networks [52.972605601174955]
本稿では,ResNet型CNNが重要な関数クラスにおいて最小誤差率を達成可能であることを示す。
Barron と H'older のクラスに対する前述のタイプの CNN の近似と推定誤差率を導出する。
論文 参考訳(メタデータ) (2019-03-24T19:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。