論文の概要: FedACK: Federated Adversarial Contrastive Knowledge Distillation for
Cross-Lingual and Cross-Model Social Bot Detection
- arxiv url: http://arxiv.org/abs/2303.07113v1
- Date: Fri, 10 Mar 2023 03:10:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-14 14:50:55.496511
- Title: FedACK: Federated Adversarial Contrastive Knowledge Distillation for
Cross-Lingual and Cross-Model Social Bot Detection
- Title(参考訳): FedACK: 言語横断型およびモデル横断型ソーシャルボット検出のための相互比較知識蒸留
- Authors: Yingguang Yang, Renyu Yang, Hao Peng, Yangyang Li, Tong Li, Yong Liao,
Pengyuan Zhou
- Abstract要約: FedACKは、ソーシャルボット検出のための新しい敵対的対照的な知識蒸留フレームワークである。
グローバルなジェネレータは、グローバルなデータ分散の知識を抽出し、各クライアントのローカルモデルに蒸留するために使用される。
実験により、FedACKは精度、通信効率、特徴空間の整合性という点で最先端のアプローチよりも優れていることが示された。
- 参考スコア(独自算出の注目度): 22.979415040695557
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Social bot detection is of paramount importance to the resilience and
security of online social platforms. The state-of-the-art detection models are
siloed and have largely overlooked a variety of data characteristics from
multiple cross-lingual platforms. Meanwhile, the heterogeneity of data
distribution and model architecture makes it intricate to devise an efficient
cross-platform and cross-model detection framework. In this paper, we propose
FedACK, a new federated adversarial contrastive knowledge distillation
framework for social bot detection. We devise a GAN-based federated knowledge
distillation mechanism for efficiently transferring knowledge of data
distribution among clients. In particular, a global generator is used to
extract the knowledge of global data distribution and distill it into each
client's local model. We leverage local discriminator to enable customized
model design and use local generator for data enhancement with hard-to-decide
samples. Local training is conducted as multi-stage adversarial and contrastive
learning to enable consistent feature spaces among clients and to constrain the
optimization direction of local models, reducing the divergences between local
and global models. Experiments demonstrate that FedACK outperforms the
state-of-the-art approaches in terms of accuracy, communication efficiency, and
feature space consistency.
- Abstract(参考訳): ソーシャルボット検出は、オンラインソーシャルプラットフォームのレジリエンスとセキュリティにとって最も重要なものだ。
最先端検出モデルはサイロ化されており、多言語プラットフォームからさまざまなデータ特性を見落としている。
一方、データ分散とモデルアーキテクチャの不均一性により、効率的なクロスプラットフォームおよびクロスモデル検出フレームワークの開発が複雑になる。
本稿では,ソーシャルボット検出のための新たな対向的対向的知識蒸留フレームワークであるFedACKを提案する。
クライアント間でのデータ流通に関する知識を効率的に伝達するためのgan型連系知識蒸留機構を考案する。
特に、グローバル・ジェネレータは、グローバル・データ分散の知識を抽出し、各クライアントのローカル・モデルに蒸留するために使用される。
局所判別器を用いてモデル設計をカスタマイズし,データエンハンスメントに局所生成器を用いる。
ローカルトレーニングは、クライアント間の一貫した特徴空間を可能にし、ローカルモデルの最適化方向を制約し、ローカルモデルとグローバルモデルの相違を減らすために、多段階の相反学習およびコントラスト学習として行われる。
実験により、フェダックは精度、通信効率、特徴空間の一貫性の観点から最先端のアプローチよりも優れていることが示されている。
関連論文リスト
- Proximity-based Self-Federated Learning [1.0066310107046081]
本稿では,近接型自己フェデレーション学習という,新しい完全分散型フェデレーション学習戦略を提案する。
従来のアルゴリズムとは異なり、我々の手法は、地理的近接とモデル精度に基づいて、クライアントが近隣ノードとモデルを共有し、調整することを奨励する。
論文 参考訳(メタデータ) (2024-07-17T08:44:45Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - pFedES: Model Heterogeneous Personalized Federated Learning with Feature
Extractor Sharing [19.403843478569303]
特徴抽出器の共有に基づくモデル・ヘテロジニアス・パーソナライズされたフェデレーション学習手法を提案する。
これは、各クライアントの異種局所モデルに小さな同種特徴抽出器を組み込む。
テスト精度は1.61%向上し、通信コストと計算コストをそれぞれ99.6%と82.9%削減した。
論文 参考訳(メタデータ) (2023-11-12T15:43:39Z) - Rethinking Client Drift in Federated Learning: A Logit Perspective [125.35844582366441]
フェデレートラーニング(FL)は、複数のクライアントが分散した方法で協調的に学習し、プライバシ保護を可能にする。
その結果,局所モデルとグローバルモデルとのロジット差は,モデルが継続的に更新されるにつれて増大することがわかった。
我々はFedCSDと呼ばれる新しいアルゴリズムを提案する。FedCSDは、ローカルモデルとグローバルモデルを調整するためのフェデレーションフレームワークにおけるクラスプロトタイプの類似度蒸留である。
論文 参考訳(メタデータ) (2023-08-20T04:41:01Z) - FedSoup: Improving Generalization and Personalization in Federated
Learning via Selective Model Interpolation [32.36334319329364]
クロスサイロフェデレーション学習(FL)は、データセンタに分散したデータセット上での機械学習モデルの開発を可能にする。
近年の研究では、現在のFLアルゴリズムは、分布シフトに直面した場合、局所的な性能とグローバルな性能のトレードオフに直面している。
地域とグローバルのパフォーマンスのトレードオフを最適化する新しいフェデレーションモデルスープ手法を提案する。
論文 参考訳(メタデータ) (2023-07-20T00:07:29Z) - CDKT-FL: Cross-Device Knowledge Transfer using Proxy Dataset in Federated Learning [27.84845136697669]
我々は,グローバルモデルとローカルモデル間の知識伝達の程度を研究するために,新しい知識蒸留に基づくアプローチを開発する。
提案手法は局所モデルの大幅な高速化と高いパーソナライズ性能を実現する。
論文 参考訳(メタデータ) (2022-04-04T14:49:19Z) - FedDC: Federated Learning with Non-IID Data via Local Drift Decoupling
and Correction [48.85303253333453]
フェデレートラーニング(FL)は、複数のクライアントがプライベートデータを共有せずに、高性能なグローバルモデルを集合的にトレーニングすることを可能にする。
局所的ドリフトデカップリングと補正(FedDC)を用いた新しいフェデレーション学習アルゴリズムを提案する。
私たちのFedDCでは、ローカルモデルパラメータとグローバルモデルパラメータのギャップを追跡するために、各クライアントが補助的なローカルドリフト変数を使用するような、ローカルトレーニングフェーズにおける軽量な修正のみを導入しています。
実験結果と解析結果から,FedDCは様々な画像分類タスクにおいて,収差の迅速化と性能の向上を図っている。
論文 参考訳(メタデータ) (2022-03-22T14:06:26Z) - Fine-tuning Global Model via Data-Free Knowledge Distillation for
Non-IID Federated Learning [86.59588262014456]
フェデレートラーニング(Federated Learning, FL)は、プライバシ制約下での分散学習パラダイムである。
サーバ内のグローバルモデル(FedFTG)を微調整するデータフリー知識蒸留法を提案する。
私たちのFedFTGは最先端(SOTA)のFLアルゴリズムよりも優れており、FedAvg、FedProx、FedDyn、SCAFFOLDの強化のための強力なプラグインとして機能します。
論文 参考訳(メタデータ) (2022-03-17T11:18:17Z) - Towards Fair Federated Learning with Zero-Shot Data Augmentation [123.37082242750866]
フェデレーション学習は重要な分散学習パラダイムとして登場し、サーバはクライアントデータにアクセスせずに、多くのクライアントがトレーニングしたモデルからグローバルモデルを集約する。
本稿では, 統計的不均一性を緩和し, フェデレートネットワークにおけるクライアント間での精度向上を図るために, ゼロショットデータ拡張を用いた新しいフェデレーション学習システムを提案する。
Fed-ZDAC (クライアントでのゼロショットデータ拡張によるフェデレーション学習) と Fed-ZDAS (サーバでのゼロショットデータ拡張によるフェデレーション学習) の2種類について検討する。
論文 参考訳(メタデータ) (2021-04-27T18:23:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。