論文の概要: Role-Aware Multi-modal federated learning system for detecting phishing webpages
- arxiv url: http://arxiv.org/abs/2509.22369v1
- Date: Fri, 26 Sep 2025 14:02:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:54.482315
- Title: Role-Aware Multi-modal federated learning system for detecting phishing webpages
- Title(参考訳): フィッシングWebページ検出のための役割意識型マルチモーダル・フェデレーション学習システム
- Authors: Bo Wang, Imran Khan, Martin White, Natalia Beloff,
- Abstract要約: 本稿では,URL,HTML,画像入力をサポートするマルチモーダルフィッシングサイト検出器を提案する。
提案手法は,FedProx上の役割認識バケットアグリゲーションであり,Mixture-of-ExpertsとFedMMにインスパイアされたものである。
その結果,バケットアグリゲーションとハードゲートの専門家は,厳密なプライバシーの下で安定したフェデレーショントレーニングを可能にすることがわかった。
- 参考スコア(独自算出の注目度): 1.929911177943234
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: We present a federated, multi-modal phishing website detector that supports URL, HTML, and IMAGE inputs without binding clients to a fixed modality at inference: any client can invoke any modality head trained elsewhere. Methodologically, we propose role-aware bucket aggregation on top of FedProx, inspired by Mixture-of-Experts and FedMM. We drop learnable routing and use hard gating (selecting the IMAGE/HTML/URL expert by sample modality), enabling separate aggregation of modality-specific parameters to isolate cross-embedding conflicts and stabilize convergence. On TR-OP, the Fusion head reaches Acc 97.5% with FPR 2.4% across two data types; on the image subset (ablation) it attains Acc 95.5% with FPR 5.9%. For text, we use GraphCodeBERT for URLs and an early three-way embedding for raw, noisy HTML. On WebPhish (HTML) we obtain Acc 96.5% / FPR 1.8%; on TR-OP (raw HTML) we obtain Acc 95.1% / FPR 4.6%. Results indicate that bucket aggregation with hard-gated experts enables stable federated training under strict privacy, while improving the usability and flexibility of multi-modal phishing detection.
- Abstract(参考訳): 我々は,URL,HTML,画像入力をサポートするフェデレートされたマルチモーダルなフィッシングWebサイト検出器を提案し,クライアントを推論時に一定のモダリティに縛り付けることなく,任意のクライアントが他の場所で訓練されたモダリティヘッドを呼び出すことができる。
提案手法は,FedProx上の役割認識バケットアグリゲーションであり,Mixture-of-ExpertsとFedMMにインスパイアされたものである。
学習可能なルーティングを廃止し、ハードゲーティング(イメージ/HTML/URLの専門家をサンプルモダリティで選択する)を使用することで、モダリティ固有のパラメータを個別に集約することで、相互埋め込みの競合を分離し、収束を安定化します。
TR-OPでは、FusionヘッドがAcc 97.5%に到達し、2種類のデータタイプでFPR 2.4%、画像サブセットではFPR 5.9%でAcc 95.5%に達した。
テキストに関しては、URLにはGraphCodeBERTを使用します。
WebPhish (HTML)ではAcc 96.5% / FPR 1.8%を取得し、TR-OPではAcc 95.1% / FPR 4.6%を得る。
その結果,バケットアグリゲーションは厳密なプライバシー下での安定したフェデレーショントレーニングを可能にするとともに,マルチモーダルフィッシング検出のユーザビリティと柔軟性を向上させることが示唆された。
関連論文リスト
- Multi-source Multimodal Progressive Domain Adaption for Audio-Visual Deception Detection [25.29751397873203]
本稿では,第1回SVCワークショップにおけるMMDD(MultiModal Deception Detection)チャレンジの勝利について述べる。
本稿では,マルチソース・マルチモーダル・プログレッシブ・ドメイン適応(MMPDA)フレームワークを提案する。
F1スコアでは60.43%、F1スコアでは56.99%、F1スコアでは5.59%、F1スコアでは3位では6.75%である。
論文 参考訳(メタデータ) (2025-08-18T11:30:08Z) - Robust Federated Learning under Adversarial Attacks via Loss-Based Client Clustering [1.3853653640712935]
フェデレートラーニング(FL)は、プライベートデータを共有せずに、複数のクライアント間で協調的なモデルトレーニングを可能にする。
FLサーバは信頼できる(正直な)サイドデータセットを持ち、FLクライアントが敵(ビザンチン)攻撃を受ける場合のFLシナリオを考察する。
論文 参考訳(メタデータ) (2025-08-18T07:11:21Z) - FedRA: A Random Allocation Strategy for Federated Tuning to Unleash the
Power of Heterogeneous Clients [50.13097183691517]
実世界のフェデレーションシナリオでは、様々な計算と通信資源を持つ多種多様なクライアントが存在することが多い。
本稿では,新しいフェデレーションチューニングアルゴリズムであるFedRAを提案する。
各通信ラウンドにおいて、FedRAはランダムにアロケーション行列を生成する。
アダプタを用いてアロケーション行列とファインチューンに基づいて、元のモデルから少数のレイヤを再編成する。
論文 参考訳(メタデータ) (2023-11-19T04:43:16Z) - Fedward: Flexible Federated Backdoor Defense Framework with Non-IID Data [14.160225621129076]
敵はデータセットを操作でき、フェデレートされたバックドア攻撃のトリガーを注入することでモデルをアップロードできる。
既存の防衛戦略では、特定の攻撃者モデルと限定的な攻撃者モデルと、緩和のみを注入する十分な量のノイズを考慮に入れている。
バックドアの除去を確実にするためのフレキシブル・フェデレート・バックドア・ディフェンス・フレームワーク(Fedward)を紹介した。
論文 参考訳(メタデータ) (2023-07-01T15:01:03Z) - FedSkip: Combatting Statistical Heterogeneity with Federated Skip
Aggregation [95.85026305874824]
我々はFedSkipと呼ばれるデータ駆動型アプローチを導入し、フェデレーション平均化を定期的にスキップし、ローカルモデルをクロスデバイスに分散することで、クライアントの最適化を改善する。
我々は、FedSkipがはるかに高い精度、より良いアグリゲーション効率、競合する通信効率を達成することを示すために、さまざまなデータセットに関する広範な実験を行う。
論文 参考訳(メタデータ) (2022-12-14T13:57:01Z) - Pruning by Active Attention Manipulation [49.61707925611295]
CNNのフィルタプルーニングは典型的には、CNNのフィルタ重みやアクティベーションマップに離散マスクを適用することで達成される。
ここでは、アクティブアテンション操作(PAAM)によるプルーニング(pruning)という新しいフィルタ強調表示概念を提案する。
PAAMはフィルタ重みからアナログフィルタスコアを学習し、そのスコアの加算項によって正規化されたコスト関数を最適化する。
論文 参考訳(メタデータ) (2022-10-20T09:17:02Z) - FedFM: Anchor-based Feature Matching for Data Heterogeneity in Federated
Learning [91.74206675452888]
本稿では,各クライアントの特徴を共有カテゴリーのアンカーにマッチさせる新しいFedFM法を提案する。
効率と柔軟性を向上させるため,FedFM-Liteと呼ばれるFedFM変種を提案し,クライアントは同期時間と通信帯域幅のコストを少なくしてサーバと通信する。
論文 参考訳(メタデータ) (2022-10-14T08:11:34Z) - PhishSim: Aiding Phishing Website Detection with a Feature-Free Tool [12.468922937529966]
正規化圧縮距離(NCD)を用いたフィッシングサイト検出のための機能フリー手法を提案する。
この尺度は2つのウェブサイトの類似性を圧縮することで計算し、特徴抽出を行う必要がなくなる。
我々はFurthest Point Firstアルゴリズムを用いてフィッシングプロトタイプ抽出を行い、フィッシングWebページのクラスタを表すインスタンスを選択する。
論文 参考訳(メタデータ) (2022-07-13T20:44:03Z) - WAFFLe: Weight Anonymized Factorization for Federated Learning [88.44939168851721]
データが機密性やプライベート性を持つドメインでは、ローカルデバイスを離れることなく、分散的に学習できるメソッドには大きな価値があります。
本稿では,フェデレートラーニングのためのウェイト匿名化因子化(WAFFLe)を提案する。これは,インド・バフェット・プロセスとニューラルネットワークの重み要因の共有辞書を組み合わせたアプローチである。
論文 参考訳(メタデータ) (2020-08-13T04:26:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。