論文の概要: A Federated F-score Based Ensemble Model for Automatic Rule Extraction
- arxiv url: http://arxiv.org/abs/2007.03533v3
- Date: Fri, 17 Jul 2020 15:59:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-12 18:57:36.743064
- Title: A Federated F-score Based Ensemble Model for Automatic Rule Extraction
- Title(参考訳): フェデレーションFスコアに基づく自動ルール抽出のためのアンサンブルモデル
- Authors: Kun Li, Fanglan Zheng, Jiang Tian and Xiaojia Xiang
- Abstract要約: 本稿では,Fed-FEAREという自動ルール抽出のためのFスコアベースアンサンブルツリーモデルを提案する。
Fed-FEAREは、中国全土の金融ホールディングスグループにおいて、反詐欺や精密マーケティングを含む複数のビジネスにすでに適用されている。
- 参考スコア(独自算出の注目度): 7.7795069186202825
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this manuscript, we propose a federated F-score based ensemble tree model
for automatic rule extraction, namely Fed-FEARE. Under the premise of data
privacy protection, Fed-FEARE enables multiple agencies to jointly extract set
of rules both vertically and horizontally. Compared with that without federated
learning, measures in evaluating model performance are highly improved. At
present, Fed-FEARE has already been applied to multiple business, including
anti-fraud and precision marketing, in a China nation-wide financial holdings
group.
- Abstract(参考訳): 本稿では,Fed-FEAREという自動ルール抽出のためのFスコアを用いたアンサンブルツリーモデルを提案する。
データプライバシ保護の前提の下で、feder-feareは複数の機関が垂直と水平の両方のルールを共同で取り出すことができる。
フェデレーション学習がなければ,モデルの性能評価の尺度が大幅に向上する。
現在、Fed-FEAREは中国全土の金融保有グループにおいて、反詐欺や精密マーケティングを含む複数のビジネスにすでに適用されている。
関連論文リスト
- F-KANs: Federated Kolmogorov-Arnold Networks [3.8277268808551512]
分類タスクにKAN(Kolmogorov-Arnold Networks)を利用する,革新的なフェデレートラーニング(FL)手法を提案する。
本研究は, 従来の多層パーセプトロン(MLP)分類タスクと比較して, 連合カンの性能を評価する。
論文 参考訳(メタデータ) (2024-07-29T15:28:26Z) - Top-K Pairwise Ranking: Bridging the Gap Among Ranking-Based Measures for Multi-Label Classification [120.37051160567277]
本稿では,Top-K Pairwise Ranking(TKPR)という新しい尺度を提案する。
一連の分析により、TKPRは既存のランキングベースの尺度と互換性があることが示されている。
一方,データ依存縮約法という新しい手法に基づいて,提案手法の急激な一般化を確立する。
論文 参考訳(メタデータ) (2024-07-09T09:36:37Z) - FedWon: Triumphing Multi-domain Federated Learning Without Normalization [50.49210227068574]
フェデレートラーニング(FL)は、分散クライアントでの協調的なインサイトトレーニングによって、データのプライバシを高める。
しかし、フェデレーテッド・ラーニング(FL)は、非独立で同一に分散された(非i.d)データのために困難に直面する。
本稿では,FLにおける多領域問題に対処するため,FedWon(Federated Learning Without normalizations)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-06-09T13:18:50Z) - FedSOV: Federated Model Secure Ownership Verification with Unforgeable
Signature [60.99054146321459]
フェデレートラーニングにより、複数のパーティがプライベートデータを公開せずにグローバルモデルを学ぶことができる。
本稿では,FedSOVという暗号署名に基づくフェデレート学習モデルのオーナシップ検証手法を提案する。
論文 参考訳(メタデータ) (2023-05-10T12:10:02Z) - FedZKP: Federated Model Ownership Verification with Zero-knowledge Proof [60.990541463214605]
フェデレートラーニング(Federated Learning, FL)は、複数のパーティが互いにプライベートデータを共有することなく、協調的にフェデレーションモデルの学習を可能にする。
ゼロ知識証明(FedZKP)を用いた証明可能なモデルオーナシップ検証手法を提案する。
論文 参考訳(メタデータ) (2023-05-08T07:03:33Z) - FedDM: Iterative Distribution Matching for Communication-Efficient
Federated Learning [87.08902493524556]
フェデレートラーニング(FL)は近年、学術や産業から注目を集めている。
我々は,複数の局所的代理関数からグローバルなトレーニング目標を構築するためのFedDMを提案する。
そこで本研究では,各クライアントにデータ集合を構築し,元のデータから得られた損失景観を局所的にマッチングする。
論文 参考訳(メタデータ) (2022-07-20T04:55:18Z) - Monotonic Improvement Guarantees under Non-stationarity for
Decentralized PPO [66.5384483339413]
我々は,MARL(Multi-Agent Reinforcement Learning)における分散政策の最適化のための新しい単調改善保証を提案する。
本研究では,訓練中のエージェント数に基づいて,独立した比率を限定することにより,信頼領域の制約を原則的に効果的に実施可能であることを示す。
論文 参考訳(メタデータ) (2022-01-31T20:39:48Z) - FedU: A Unified Framework for Federated Multi-Task Learning with
Laplacian Regularization [15.238123204624003]
フェデレート・マルチタスク・ラーニング(FMTL)は、フェデレーション・ラーニングにおけるクライアント間の統計的多様性を捉える自然な選択肢として登場した。
統計的多様性を超えてFMTLを解き放つために、ラプラシア正規化を用いて新しいFMTL FedUを策定する。
論文 参考訳(メタデータ) (2021-02-14T13:19:43Z) - A Vertical Federated Learning Method for Interpretable Scorecard and Its
Application in Credit Scoring [7.121298406599241]
本稿では,制約付きロジスティック回帰(FL-LRBC)に基づく,従来のスコアカードの縦型フェデレーション学習フレームワークにおける勾配法を提案する。
AUC と Kolmogorov-Smirnov (KS) の両統計値のパフォーマンスは、FL-LRBC を用いたデータ濃縮により大幅に改善されている。
論文 参考訳(メタデータ) (2020-09-14T06:26:09Z) - A General Framework for Learning Mean-Field Games [10.483303456655058]
本稿では,人口の多いゲームにおいて,同時学習と意思決定を同時に行う汎用平均場ゲーム(GMFG)フレームワークを提案する。
次に、スムーズなポリシーを持つ価値ベースおよびポリシーベースの強化学習アルゴリズムを提案する。
GMF-V-QとGMF-P-TRPO(GMF-VとGMF-Pの2つの特定のインスタンス化)とQラーニングとTRPOは、GMFG設定において効率的かつ堅牢であることを示した。
論文 参考訳(メタデータ) (2020-03-13T00:27:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。