論文の概要: Global Outlier Detection in a Federated Learning Setting with Isolation Forest
- arxiv url: http://arxiv.org/abs/2409.13466v1
- Date: Fri, 20 Sep 2024 12:55:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-07 07:04:14.211235
- Title: Global Outlier Detection in a Federated Learning Setting with Isolation Forest
- Title(参考訳): 孤立林を用いたフェデレーション学習環境におけるグローバル・アウトリー検出
- Authors: Daniele Malpetti, Laura Azzimonti,
- Abstract要約: 本稿では,特にクロスサイロシナリオをターゲットとした,フェデレーション学習環境におけるグローバルなアウトレイラの検出手法を提案する。
当社のアプローチでは、2つのサーバの使用と、クライアントから1つのサーバにマスキングされたローカルデータの送信を伴います。
データのマスキングは、外れ値の識別を引き続き許可しながら、機密情報の開示を防止する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a novel strategy for detecting global outliers in a federated learning setting, targeting in particular cross-silo scenarios. Our approach involves the use of two servers and the transmission of masked local data from clients to one of the servers. The masking of the data prevents the disclosure of sensitive information while still permitting the identification of outliers. Moreover, to further safeguard privacy, a permutation mechanism is implemented so that the server does not know which client owns any masked data point. The server performs outlier detection on the masked data, using either Isolation Forest or its extended version, and then communicates outlier information back to the clients, allowing them to identify and remove outliers in their local datasets before starting any subsequent federated model training. This approach provides comparable results to a centralized execution of Isolation Forest algorithms on plain data.
- Abstract(参考訳): 本稿では,特にクロスサイロシナリオをターゲットとした,フェデレーション学習環境におけるグローバルなアウトレイラの検出手法を提案する。
当社のアプローチでは、2つのサーバの使用と、クライアントから1つのサーバにマスキングされたローカルデータの送信を伴います。
データのマスキングは、外れ値の識別を引き続き許可しながら、機密情報の開示を防止する。
さらに、プライバシーをさらに保護するために、サーバがどのクライアントがマスキングされたデータポイントを所有しているかを知らないよう、置換機構を実装している。
サーバは、アイソレーションフォレストまたはその拡張バージョンを使用して、マスクされたデータに対する外れ値検出を実行し、クライアントにアウト値情報を送信し、その後のフェデレーションモデルトレーニングを開始する前に、ローカルデータセットの外れ値の識別と削除を可能にする。
このアプローチは、プレーンデータに対する分離フォレストアルゴリズムの集中実行に匹敵する結果をもたらす。
関連論文リスト
- Subject Data Auditing via Source Inference Attack in Cross-Silo Federated Learning [23.205866835083455]
フェデレートラーニング(FL)におけるソース推論攻撃(SIA)は、どのクライアントがローカルモデルトレーニングにターゲットデータポイントを使用しているかを特定することを目的としている。
主観的メンバーシップ推論攻撃(SMIA)は、任意のクライアントが対象対象からデータポイントを利用するかどうかをクロスサイロFLで推測しようとする。
本稿では,SAIにおいてターゲットデータポイントを1つのクライアントでのみ使用可能な臨界制約を除去し,SLSIA(Subject-Level Source Inference Attack)を提案する。
論文 参考訳(メタデータ) (2024-09-28T17:27:34Z) - A collaborative ensemble construction method for federated random forest [3.245822581039027]
本研究では,非IIDデータによる性能向上を目的とした,新しいアンサンブル構築手法を用いたランダムな森林群集構築手法を提案する。
クライアントのデータのプライバシを維持するため、各ノードに到達したクライアントのローカルデータのサンプルから特定された多数決クラスラベルに、リーフノードに格納された情報を格納する。
論文 参考訳(メタデータ) (2024-07-27T07:21:45Z) - PeFAD: A Parameter-Efficient Federated Framework for Time Series Anomaly Detection [51.20479454379662]
私たちはaを提案します。
フェデレートされた異常検出フレームワークであるPeFADは、プライバシーの懸念が高まっている。
我々は、4つの実際のデータセットに対して広範な評価を行い、PeFADは既存の最先端ベースラインを最大28.74%上回っている。
論文 参考訳(メタデータ) (2024-06-04T13:51:08Z) - Jammer classification with Federated Learning [13.20023719822086]
ジャミング信号は、その操作を拒否するまで受信機の動作を危険にさらすことができる。
データ駆動モデルはこれらの脅威を検出するのに有用であることが証明されている。
本稿では,各デバイスにおけるジャム信号分類器の訓練におけるフェデレート学習の利用について検討する。
論文 参考訳(メタデータ) (2023-06-05T04:28:04Z) - DYNAFED: Tackling Client Data Heterogeneity with Global Dynamics [60.60173139258481]
非イド分散データに対する局所訓練は、偏向局所最適化をもたらす。
自然な解決策は、サーバがデータ分散全体のグローバルなビューを持つように、すべてのクライアントデータをサーバに収集することです。
本稿では,データプライバシを損なうことなく,サーバ上でのグローバルな知識の収集と活用を図る。
論文 参考訳(メタデータ) (2022-11-20T06:13:06Z) - Anomaly Detection via Federated Learning [3.0755847416657613]
本稿では,クライアントサーバ上で悪意あるネットワーク活動を検出するための,フェデレーション学習による新しい異常検出手法を提案する。
FedSamと呼ばれる新しいmin-maxスカラーとサンプリング技術を用いて、フェデレーション学習により、グローバルモデルが各クライアントのデータから学習できると判断した。
論文 参考訳(メタデータ) (2022-10-12T22:40:29Z) - Efficient Distribution Similarity Identification in Clustered Federated
Learning via Principal Angles Between Client Data Subspaces [59.33965805898736]
クラスタ学習は、クライアントをクラスタにグループ化することで、有望な結果をもたらすことが示されている。
既存のFLアルゴリズムは基本的に、クライアントを同様のディストリビューションでグループ化しようとしている。
以前のFLアルゴリズムは、訓練中に間接的に類似性を試みていた。
論文 参考訳(メタデータ) (2022-09-21T17:37:54Z) - Federated Multi-Target Domain Adaptation [99.93375364579484]
フェデレートされた学習手法により、プライバシを保護しながら、分散ユーザデータ上で機械学習モデルをトレーニングすることが可能になります。
分散クライアントデータがラベル付けされず、集中型ラベル付きデータセットがサーバ上で利用可能となる、より実用的なシナリオを考えます。
本稿では,新しい課題に対処する効果的なDualAdapt法を提案する。
論文 参考訳(メタデータ) (2021-08-17T17:53:05Z) - Decentralised Learning from Independent Multi-Domain Labels for Person
Re-Identification [69.29602103582782]
ディープラーニングは多くのコンピュータビジョンタスクで成功している。
しかし、プライバシー問題に対する意識の高まりは、特に人物の再識別(Re-ID)において、ディープラーニングに新たな課題をもたらす。
我々は,複数のプライバシ保護されたローカルモデル(ローカルクライアント)を同時に学習することにより,汎用的なグローバルモデル(中央サーバ)を構築するための,フェデレート・パーソナライゼーション(FedReID)と呼ばれる新しいパラダイムを提案する。
このクライアントサーバ共同学習プロセスは、プライバシコントロールの下で反復的に実行されるため、分散データを共有したり、収集したりすることなく、分散学習を実現することができる。
論文 参考訳(メタデータ) (2020-06-07T13:32:33Z) - TIPRDC: Task-Independent Privacy-Respecting Data Crowdsourcing Framework
for Deep Learning with Anonymized Intermediate Representations [49.20701800683092]
本稿では,匿名化中間表現を用いたタスク非依存型プライバシ参照データクラウドソーシングフレームワークTIPRDCを提案する。
このフレームワークの目的は、中間表現からプライバシー情報を隠蔽できる機能抽出器を学習することであり、データコレクターの生データに埋め込まれた元の情報を最大限に保持し、未知の学習タスクを達成することである。
論文 参考訳(メタデータ) (2020-05-23T06:21:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。