論文の概要: Federated Black-Box Adaptation for Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2410.24181v1
- Date: Thu, 31 Oct 2024 17:45:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-01 17:01:36.457588
- Title: Federated Black-Box Adaptation for Semantic Segmentation
- Title(参考訳): セマンティックセグメンテーションのためのフェデレーションブラックボックス適応
- Authors: Jay N. Paranjape, Shameema Sikder, S. Swaroop Vedula, Vishal M. Patel,
- Abstract要約: フェデレートラーニング(Federated Learning, FL)は、分散ラーニングの一種で、複数の機関やクライアントが、タスクを解決するためのグローバルモデルを共同で学習することを可能にする。
近年の研究では、データのプライバシーを守るという約束は、既存の方法では守られていないことが示されている。
我々は、ゼロオーダー最適化(ZOO)を利用してクライアントモデルの重みを更新し、一階最適化(FOO)によりサーバ重みを更新するニューラルネットワークのブラックボックス適応であるBlackFedを提案する。
- 参考スコア(独自算出の注目度): 25.12190845061075
- License:
- Abstract: Federated Learning (FL) is a form of distributed learning that allows multiple institutions or clients to collaboratively learn a global model to solve a task. This allows the model to utilize the information from every institute while preserving data privacy. However, recent studies show that the promise of protecting the privacy of data is not upheld by existing methods and that it is possible to recreate the training data from the different institutions. This is done by utilizing gradients transferred between the clients and the global server during training or by knowing the model architecture at the client end. In this paper, we propose a federated learning framework for semantic segmentation without knowing the model architecture nor transferring gradients between the client and the server, thus enabling better privacy preservation. We propose BlackFed - a black-box adaptation of neural networks that utilizes zero order optimization (ZOO) to update the client model weights and first order optimization (FOO) to update the server weights. We evaluate our approach on several computer vision and medical imaging datasets to demonstrate its effectiveness. To the best of our knowledge, this work is one of the first works in employing federated learning for segmentation, devoid of gradients or model information exchange. Code: https://github.com/JayParanjape/blackfed/tree/master
- Abstract(参考訳): フェデレートラーニング(Federated Learning, FL)は、分散ラーニングの一種で、複数の機関やクライアントが、タスクを解決するためのグローバルモデルを共同で学習することを可能にする。
これにより、モデルはデータプライバシを保持しながら、各機関からの情報を活用することができる。
しかし、近年の研究では、データのプライバシ保護の約束は既存の手法では守られず、異なる機関からのトレーニングデータを再現することが可能であることが示されている。
これは、トレーニング中にクライアントとグローバルサーバ間で転送される勾配を利用するか、クライアントのエンドでモデルアーキテクチャを知ることで実現されます。
本稿では,モデルアーキテクチャを知ることなく,クライアントとサーバ間の勾配を伝達することなく,セマンティックセマンティックセマンティクスのためのフェデレーション学習フレームワークを提案する。
我々は、ゼロオーダー最適化(ZOO)を用いてクライアントモデルの重みを更新し、一階最適化(FOO)によりサーバ重みを更新するニューラルネットワークのブラックボックス適応であるBlackFedを提案する。
いくつかのコンピュータビジョンと医用画像データセットに対するアプローチを評価し,その有効性を実証した。
私たちの知る限りでは、この研究は、セグメンテーション、勾配の欠如、モデル情報交換にフェデレーションラーニングを取り入れた最初の成果の1つである。
コード:https://github.com/JayParanjape/blackfed/tree/master
関連論文リスト
- Blockchain-enabled Trustworthy Federated Unlearning [50.01101423318312]
フェデレートアンラーニング(Federated Unlearning)は、分散クライアントのデータオーナシップを保護するための、有望なパラダイムである。
既存の作業では、分散クライアントからの履歴モデルパラメータを保持するために、中央サーバが必要である。
本稿では,ブロックチェーンによる信頼性の高いフェデレーションアンラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-29T07:04:48Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - Subspace based Federated Unlearning [75.90552823500633]
フェデレート・アンラーニング(FL)は、ユーザが忘れられる権利を満たすために、特定のターゲットクライアントのFLへの貢献を取り除くことを目的としている。
既存のフェデレートされた未学習アルゴリズムでは、パラメータの更新履歴をサーバに格納する必要がある。
そこで我々は,SFUと呼ばれる,単純なyet効率のサブスペースに基づくフェデレーションアンラーニング手法を提案する。
論文 参考訳(メタデータ) (2023-02-24T04:29:44Z) - FedHP: Heterogeneous Federated Learning with Privacy-preserving [0.0]
フェデレーション学習は分散機械学習環境であり、パラメータを交換するだけで、クライアントがプライベートデータを共有せずにコラボレーティブなトレーニングを完了できるようにする。
本稿では,事前学習されたモデルをバックボーンとして,完全に接続されたレイヤをヘッドとして構成する,新しいフェデレーション学習手法を提案する。
勾配空間に基づくパラメータではなく、クラスの埋め込みベクトルを共有することで、クライアントはプライベートデータにより適応でき、サーバとクライアント間の通信においてより効率的になります。
論文 参考訳(メタデータ) (2023-01-27T13:32:17Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - Learning Across Domains and Devices: Style-Driven Source-Free Domain
Adaptation in Clustered Federated Learning [32.098954477227046]
本稿では,クライアントのデータをラベル付けせず,サーバが事前学習のためにラベル付きデータセットにアクセスする新しいタスクを提案する。
実験の結果,我々のアルゴリズムは既存の手法よりも効率よく新しい課題に取り組むことができることがわかった。
論文 参考訳(メタデータ) (2022-10-05T15:23:52Z) - Federated Select: A Primitive for Communication- and Memory-Efficient
Federated Learning [4.873569522869751]
Federated Learning(FL)は、異種クライアントデバイス間で機械学習を行うためのフレームワークである。
クライアントがどの値を送信するかを"選択"する,より一般的な手順を提案する。
これにより、クライアントは小さなデータ依存スライスで操作できる。
論文 参考訳(メタデータ) (2022-08-19T16:26:03Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - An Expectation-Maximization Perspective on Federated Learning [75.67515842938299]
フェデレーション学習は、データをデバイス上でプライベートにしながら、複数のクライアントにわたるモデルの分散トレーニングを記述する。
本稿では,サーバがクライアント固有のモデルパラメータに対して事前分布のパラメータを提供する階層的潜在変数モデルとして,サーバが設定したフェデレーション学習プロセスについて考察する。
我々は,単純なガウス先行とよく知られた期待最大化(EM)アルゴリズムのハードバージョンを用いて,そのようなモデルの学習は,フェデレーション学習環境における最も一般的なアルゴリズムであるFedAvgに対応することを示す。
論文 参考訳(メタデータ) (2021-11-19T12:58:59Z) - GRAFFL: Gradient-free Federated Learning of a Bayesian Generative Model [8.87104231451079]
本稿では、GRAFFLと呼ばれる、最初の勾配のない連邦学習フレームワークを提案する。
参加する各機関から得られた暗黙の情報を用いて、パラメータの後方分布を学習する。
本稿では,GRAFFLに基づくベイズ混合モデルを提案する。
論文 参考訳(メタデータ) (2020-08-29T07:19:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。