(参考訳) 組織間のデータ保護は、集中型学習(cl)技術の適用を制限する。
フェデレーション学習(fl)は、複数の参加者がデータを共有することなく学習モデルを構築することを可能にする。
それでも、知的製造におけるFLに関する研究はごくわずかである。
本稿では,FLに基づく生産ラインの故障予測に関する実証研究の結果について述べる。
本論文では,(1)FedSVM(Federated Support Vector Machine)およびFedRF(Federated Random Forest)アルゴリズムを水平FLと垂直FLのシナリオに対してそれぞれ設計し,(2)FLとCLのアルゴリズムの有効性を評価する実験プロセスを提案する。
テストデータが不均一であるという事実は、私たちの発見を高めます。
本研究では FL が CL を故障予測に置き換えることができることを明らかにした。
Data protection across organizations is limiting the application of
centralized learning (CL) techniques. Federated learning (FL) enables multiple
participants to build a learning model without sharing data. Nevertheless,
there are very few research works on FL in intelligent manufacturing. This
paper presents the results of an empirical study on failure prediction in the
production line based on FL. This paper (1) designs Federated Support Vector
Machine (FedSVM) and Federated Random Forest (FedRF) algorithms for the
horizontal FL and vertical FL scenarios, respectively; (2) proposes an
experiment process for evaluating the effectiveness between the FL and CL
algorithms; (3) finds that the performance of FL and CL are not significantly
different on the global testing data, on the random partial testing data, and
on the estimated unknown Bosch data, respectively. The fact that the testing
data is heterogeneous enhances our findings. Our study reveals that FL can
replace CL for failure prediction.
failure sults study an production This on Federated Support Vector Machine erated Random Forest izontal vertical FL and for an experiment process proposes evaluating tiveness algorithms; CL between and that global testing data, different estimated on testing tial the and that the fact respectively.
This on Federated Support Vector Machine erated Random Forest izontal vertical FL and for a experiment process proposes tiveness algorithm; CL between and that global testing data, different estimated on testing the and that fact。 訳抜け防止モード: フェデレート・サポート・ベクター・マシンによるランダム・フォレスト・イゾンタル・垂直flの生産に関する研究 実験プロセスでは 主観性アルゴリズム ; cl 間の関係を評価することを提案する。 そして、tial theのテストで推定されるグローバルなテストデータと、その事実がそれぞれ違うのです。
0.67
The data, findings. our enhances erogeneous for that can replace CL failure
データ、調査結果。 CL の故障を置き換えることができます。
0.65
is organizations limtech(CL) learning enables multiple particdata.
is organizations limtech(cl) learningは複数のparticdataを可能にする。
0.74
on FL in few research works the represents This in the on prediction designs (1) paper FL.
on FL in few research work the represent This in the on predict design (1) paper FL。
0.75
(FedSVM) and Fedhor(2) effecfinds significantly random parunknown Bosch is hetreveals
(FedSVM)とFedhor(2) effecfinds significant random parunknown Bosch is hetreveals
0.82
the performance of FL and CL are not on the
FL と CL のパフォーマンスはありません。
0.72
the respectively; the (3) testing data Our study prediction.
それぞれ; (3) テストデータ 我々の研究予測。
0.68
(FedRF) FL on the data,
(FedRF)FL データについて
0.65
algorithms scenarios,
アルゴリズム シナリオや
0.71
the FL FL for
はあ? FL FL ですから
0.65
Safety-Critical of Software and Astronautics), Ministry
安全批判 Software and Astronautics (複数形 Software and Astronauticss)
0.59
Information Technology. the Key Laboratory of Aeronautics
情報技術。 The Key Laboratory of Aeronautics (英語)
0.71
Ning Ge of School Software, Beihang University, Beijing, China gening@buaa.edu.cn E-mail: She was also with (Nanjing University of Industry and Guanghao Li School of Software, Beihang University, Beijing, China E-mail: liguanghao@buaa.edu. cn Zhang Li School Computer of versity, Beijing, China E-mail: Zhang Li Yi Liu School Computer versity, Beijing, China E-mail:
Ning Ge of School Software, Beihang University, Beijing, China gening@buaa.edu.cn E-mail: She was also with (Nanjing University of Industry and Guanghao Li School of Software, Beihang University, Beijing, China E-mail: liguanghao@buaa.edu. cn Zhang Li School Computer of versity, Beijing, China E-mail: Zhang Li Yi Liu School versity, Beijing, China E-mail:
0.97
lily@buaa.edu.cn is
lily@buaa.edu.cn is
0.65
zy1906505@buaa.edu.c n
zy1906505@buaa.edu.c n
0.52
Engineering, Engineering, corresponding
工学。 工学。 対応
0.59
Science Science author. and
科学 科学 著者。 そして
0.70
and the of
そして はあ? ですから
0.53
Beihang Uni- Uni- Beihang
備漢 ユニ ユニ 備漢
0.46
Keywords Failure Bosch
キーワード失敗ボッシュ
0.71
prediction dataset Empirical ·
予測データセット 経験・・
0.51
· study Production Federated line
【生産研究】 フェデレーションライン
0.69
· learning · Manufacturing · 1
・学習・製造 · 1
0.79
Introduction is of
はじめに は ですから
0.60
et al. on the
など アル オン はあ?
0.48
one prediction early detection or
一つ 予測 早期発見か
0.66
Intel the chip instance, AI the
Intelのチップ 例えば、AIは
0.71
(AI) the revolution Li et al
(AI)革命Li et al
0.71
core techniques Artificial intelligence (2017); Zhong in the fourth industrial techniques have been emet (2017).
core techniques artificial intelligence (2017)、zhong in the fourth industrial techniques was emet (2017)。
0.75
For al. fault prediction ployed to improve within production lines Kusiak (2017); Tao (2018) in intelligent manufacturing (IM).
et (2019); Liu (2020d); Mangal and Kumar (2016); Maurya (2016); et al et Zhang Moldovan real.
et (2019); Liu (2020d); Mangal and Kumar (2016); Maurya (2016); et al et Zhang Moldovan real。
0.76
(2019); al.
(2019)、al。
0.72
facts. First, important two sults revealed of these work has on preprocessing data a Bosch dataset signifthe Second, icant prediction the impact result.
(2017). response In concept the of centralize the FL (2016).
(2017). 応答 概念的には、FL (2016) を中央集権化する。
0.74
trains models local holding devices sharing or changing the and transmit to server the build addresses FL hand, security Li data and On the other hand, removing out the more ples can be widespread attention many fields.
For example, prediction on the of mobile better obtained prediction (2018).
例えば、モバイル上での予測はより良い予測を得た(2018年)。
0.65
Intel started to FL2.
IntelはFL2を始めた。
0.60
tecture for FL has systems medical like fields al.
FLのテクチュアには フィールドのような システム医療がある
0.72
(2019a); Sheller et Brisimi al.
(2019)、Sheller et Brisimi al。
0.67
(2018); Huang Suzumura finance et Internet (2018b), city smart Liu et al.
(2018)Huang Suzumura finance et Internet (2018b), City Smart Liu et al。
0.66
et (2019b), (2019), (2019); Saputra et al rakoon et al IOT Chen (2019), et al.
et (2019b), (2019), (2019), Saputra et al rakoon et al IOT Chen (2019), et al al al。
0.77
Bakopoulou ing Physical Cyber al.
Bakopoulou ing物理サイバーアル。
0.67
et Nguyen (2019), et (2020); Mowla al.
et Nguyen (2019), et (2020); Mowla al。
0.71
et Aussel al.
オーセル・アル(Ausssel al)。
0.26
the of field In enterprises, workshops, or crosses security, Due to data privacy is becoming The the line in prediction the assumption the under all der the premise data lines, these methods our to according ing FL to the field
フィールドの分野 企業、ワークショップ、またはセキュリティを横断するデータプライバシーのために、すべての前提データラインの仮定を予測するラインになりつつあります。 訳抜け防止モード: 分野 企業、ワークショップ、またはセキュリティを横断する。 データプライバシーのために、予測のラインは、前提データラインから、すべての前提を想定しています。 これらのメソッドは、フィールドに ing FL に従います。
0.67
proposed deal. decentralized exprivate then encrypt these to back parameters trained model or the one On model.
Accordingly, this an still open study empirical an reporting by this gap line production in prediction product the atthe study This with FL is first design FL algorithms for failure prediction in line.
turing FL algorithm can a real-world these stantive, on failure First,
turing flアルゴリズムは、失敗の第一に、現実の世界を想定できる。
0.57
questions, SVM and
質問だ SVMとSVM
0.69
this for our
これ ですから 私達
0.63
◦ ◦ ◦ to of
◦ ◦ ◦ へ ですから
0.74
英語(論文から抽出)
日本語訳
スコア
Failure Prediction in Production Line Based
故障予測 生産中 線ベース
0.69
on Federated
オン フェデレーション
0.57
Learning: An Empirical Study
学習: 経験的な 研究
0.68
3 Second, compare works terms
3 第二に 比較 work terms
0.77
based et al.
Based et al.
0.66
sign, feature on (2020a).
サイン、特徴 2020年)に登場。
0.62
our work selection we al.
私達の仕事の選択は アル
0.48
et Liu (2019); Bakopoulou existing algorithm dein In the of novelty improved FedRF by introducing optimal and steps.
et Liu (2019); Bakopoulouの既存のアルゴリズムDeinのノベルティでは、最適なステップを導入してFedRFを改善しました。
0.67
pruning experimental methodof a propose set of performance average to the and FL on from three in manufacturing aspects: the whole the random partial testing data, and compare To data.
pruning experimental method of a proposed set of performance average to the and FL on from three in manufacturing aspects: the whole the random partial testing data, and compare to data. 実験的な手法。
0.94
testing unknown estimated on CL and FL of the unprocess the follow Bosch data, we of MeasureSystems Analysis (MSA) to fit process resp.)
failure prediction, estimated and on replace CL the
失敗の予測, 推定と置換 CL です。
0.71
shows sofrom the CL solution on the random pardata.
ランダムなパーデータ上の CL ソリューションからそう示します。
0.67
FL prediction testing failure
FL予測 テストの失敗
0.77
the manufacturing a Markov
製造は Markov (複数形 Markovs)
0.57
then that our FL
じゃあ あれ 私達 FL
0.70
in in In the algorithms
で で では アルゴリズム
0.72
introduce the this paper, we first remainder of research and reof background knowledge empirical our and present 2, Section lated work experiVFL in Section 3, the mental methodology in Section 4.
Section 5 presents the discusses results 6 FL whether threat can replace looks and paper forward
セクション5は、脅威が一見と紙を前方に置き換えることができるかどうか議論結果6 FLを提示します。
0.54
empirical our of Section validity.
実証的なセクションの有効性。
0.54
of Section CL. 8 future work.
CLの略。 将来の8作。
0.67
to Section discusses this
へ 節 これについて論じる
0.54
designed HFL outline study.
HFL設計。 勉強だ
0.63
7 the and concludes the
7 と 結論 はあ?
0.57
2 Background and Related Work previous works introduces section This based the CL prediction quality uct discusses of the necessity conducting for on the FL algorithms this problem; federated of principles explains
leading of the manufacturing worldwide of the one Bosch is production by quality high ensures It companies.
先導者 one boschの世界的な製造は、品質の高いit企業による生産である。
0.56
processes. the in manufacturing its monitoring parts each detailed records Bosch Because on step data techniques advanced assembly the lines, they can apply this processes.
the improve to To end, manufacturing the Kaggle Bosch has published on competidataset by failures internal platform to tion thousands tests of measurements made for each component
analyzed have studies along to predicting the approaches excluding timeproduct quality based on CL algorithms (2016); features Carbery et al series al.
分析された研究は、CLアルゴリズム(2016)に基づくタイムプロダクティビティ品質を除くアプローチを予測するとともに、Carbery et alシリーズを特徴とする。 訳抜け防止モード: 分析された研究は CLアルゴリズムに基づく時間生産品質を除くアプローチの予測(2016年) Carbery et al series に登場。
0.82
et (2019); Manand Grobler Khoza et (2016); Maurya al.
Manand Grobler Khoza et (2016), Maurya al. (2019), Manand Grobler Khoza et (2016), Maurya al.
0.73
Zhang Kumar and gal et al.
Zhang Kumar and gal et al。
0.81
features time-series Huang including (2016) or (2019), (2020d); Moldovan et al.
2016)または(2019)、(2020d)を含む時系列Huangを特色にします。
0.66
as (2019b); Liu al.
として (2019b); Liu al。
0.92
et conducted were Table summarized works in Logistic learning methods, set based on a of including (GBM), Gradient Regression Boosting Machine (LR), Random Forest (RF), Gradient Boosted Trees (GBT), (BN), K-Nearest Naive Bayes Neighbors Machines (SVM), (MPC), Majority VotMultilayer Perceptron Classifier ing (DT), Statistical Process Control
研究は, (GBM), Gradient Regression Boosting Machine (LR), Random Forest (RF), Gradient Boosted Trees (GBT), (BN), K-Nearest Naive Bayes Neighbors Machines (SVM), (MPC), Majority Vot Multilayer Perceptron Classifier ing (DT), Statistical Process Control (DT), Statistical Process Control (DT), Statistical Process Control (DT) を含む,ロジスティック学習手法の表にまとめた。
0.83
(NB), Bayesian Network (KNN), Vector
(NB)ベイジアンネットワーク(KNN)、ベクトル
0.70
(MV), Decision Tree (SPC), Carbery et al Carbery et al
(MV), 決定木(SPC), Carbery et al Carbery et al al
0.75
Support These Carbery
支援 これら キャベリー
0.63
SVM achieved (2019) the Bosch
SVM の達成 (2019年)ボッシュ
0.70
on quality al. (2016), Khoza RF, NB, performed
品質はal。 (2016)、Khoza RF、NB、実行されました。
0.58
conducted categorical, dataset, Bosch for
分類、データセット、ボッシュの実施
0.61
showed et accuracy. Mangal analysis a visual and numeric, and used quality
精度を示しました 視覚的, 数値的, 使用品質のマンガル解析
0.65
conducted a sysdataset and used al.
sysdatasetを実行し、alを使用した。
0.57
et (2018). hetdata weakened (2016) RF, applied and then cluster.
2018年)。 hetdata weakened (2016) RF, applied, then cluster。
0.47
They showed algorithms.
アルゴリズムを示しました
0.70
Based and Grobal.
ベースとグローバル。
0.38
Khoza et et al.
Khoza et et al。
0.78
They SVM, SPC. and compared that better.
SVM、SPC。 より良く比較しました
0.63
Kotenko et al.
Kotenko et al。
0.79
RF (2019) used SVM, KNN, LR, Perceptron, relatively and al.
RF (2019) は SVM, KNN, LR, Perceptron, relative and al を使用した。
0.90
Mangal three the featime-series LR, Extra Trees prediction.
マンガル第3シリーズ LR, Extra Trees の予測。
0.67
Hebert could propevents.
ヘバートは長引くことができた。
0.23
Mauusing analysis feature tematic product predict BN to et al.
モーリング 分析特徴 tematic product predict bn to et al。
0.57
Zhang Zhang et clustering, through erogeneity to Boosting, LR, NB, DT each that RF performed better than other Zhang on (2019) ler also showed Kotenko et al and MV and DT, prediction higher (2016) Kumar of types data: tures the on Classifier, RF, XGBoost Hebert erly identify conditions rya Maurya a GBM as studies Huang The Moldovan et (2019) al.
Zhang Zhang et clustering, through erogeneity to Boosting, LR, NB, DT each that RF performed than other Zhang on (2019) ler also show Kotenko et al and MV and DT, predict higher (2016) Kumar of type data: tures the on Classifier, RF, XGBoost Hebert erly identify conditions rya Maurya a GBM as Study Huang The Moldovan et (2019) al。
0.82
tures. al. et Huang an tures cance found that the LSTM RNN model et al.
チューズ アル et Huang an tures canceはLSTM RNNモデルなどを発見した。
0.48
machine Liu learning et formed proposed an unified et al.
Machine Liu Learning et formed proposed an unified et al。
0.78
to capture prediction the among different the A-Bi-SP-LSTM model that ing data-driven methods.
データ駆動手法を応用したA-Bi-SP-LSTMモデルの予測を捕捉する。
0.65
studies on Despite prediction, have been
予測にもかかわらず、研究されている。
0.58
(2020d); feaconstructed feasignifial.
(2020d)feastructed feasignifial。
0.72
Moldovan outperal. Liu quality interactions temporal showed processes.
モルドバ全盛期。 Liuの質の相互作用の一時的な示されたプロセス。
0.50
They the outperforms exist- classifier.
勝敗は存在する。 分類者
0.48
et al. have Huang LSTM network model which researchers.
など。 研究者によるHuang LSTMネットワークモデルがある。
0.55
Moldovan (2019b); Liu et considered (2019b) al.
モルドバ (2019b); Liu et considered (2019b) al。
0.73
et on based the enlightening has great
et onベースの啓蒙は素晴らしいです。
0.57
the of data, other for (2019) other (2020d)
データ、その他の(2019年)他(2020年)
0.75
found that RF and XGBoost lead to failure
RF と XGBoost が失敗につながりました。
0.79
models. end-to-end
モデル。 end‐to‐end
0.55
optimized MCC measure framework of features
最適化MCC測度 特徴の枠組み
0.77
learning all (2016) base
すべてを学ぶ (2016年)基地
0.66
failure the as- for under
失敗します。 その下に
0.56
these they time-series time-series
これらは 時系列 時系列
0.64
conducted features (2016)
実施 特徴 (2016)
0.71
that that al. by
あれ あれ アル で
0.58
et
など
0.59
英語(論文から抽出)
日本語訳
スコア
4 Ning Ge et al.
4 ニンゲ など アル
0.54
Table 1: Research Works
テーブル 1:研究活動
0.77
on Failure Prediction in Bosch Production
オン 故障予測 ボッシュ生産で
0.63
Line Objectives Improving predictive model without time-series features
路線 目的 時系列特徴のない予測モデルの改善
0.63
Improving predictive model with time-series features
other shared. Under all data are sumption that production lines, between protection data question An open unpractical.
その他 共有。 すべてのデータの下には、生産ライン、保護データ間の仮定があります。
0.66
become ods FL there algorithms that can some exist study is a first attempt methods.
ods FLとなると、ある研究が最初の試みとなるアルゴリズムが存在する。
0.75
Thus, our prediction failure algorithms
したがって、予測失敗アルゴリズムは、
0.72
the premise of these methwhether is replace CL to design FL line.
これらの前提は CL を FL ラインに置き換えるかどうかです
0.69
assembly the for
組立 はあ? ですから
0.53
in in selected 2, we well on the the HFL scenario, we
で で 2 を選択し、HFL シナリオについてよく説明します。
0.71
tion Sect. performed In gorithm to compare we improve the existing Federated Forest compare with RF.
イオンセクター。 その結果,既存の森林群落とRF群落を比較検討した。
0.44
to (2020a) al.
to (2020a) al.
0.97
et SVM and RF models, which baseline.
など SVMとRFモデルはベースラインです。
0.64
existing FedSVM althe VFL scenario, In algorithm Liu
既存の FedSVM アルゴリズム Liu で VFL シナリオ。
0.76
dataset, the SVM.
データセット、SVM。
0.68
Bosch reuse
Bosch の再利用
0.62
it with the as
それと はあ? として
0.50
2.2 Overview of Federated
2.2 概要 フェデレーション
0.67
Learning 3.1 Federated
学習 3.1 フェデレーション
0.61
SVM on IDs usually
SVM オン ID 通常
0.77
FL (TFL)
FL (複数形 FLs)
0.71
we transfer classify learning
転送します 学習の分類
0.65
relationship between the datasets proAccording the to into HFL, by vided the clients, Kairouz VFL, and federated the HFL and VFL focuses article (2019).
データセット間の関係は、クライアントであるkairouz vflを分割し、hfl and vfl focus article (2019) をフェデレートすることで、toをhflに置き換える。
0.66
This et al. user by partitioned are data or In HFL, scenarios.
と言いました。 user by partitionedはデータかHFLのシナリオです。
0.50
manufaccontext in example, of the IDs.
manufaccontext in example, of the IDs.
0.85
device For and B are two independent factories turing, clients A structure having and machine line production same the in each production line configuration.
Their production entire the stream of interthe guarantees which the to likely are be same, A both section of their product space.
彼らの生産は、製品空間の両セクションである、おそらく同じであるであろう相互保証の流れ全体である。
0.78
However, since and B record part of manufacturing behavior, their feadesign ture very spaces FedSVM as as the VFL model, centralized SVM and RF models.
1) algorithm, is SVM learning suitable regression analysis.
1) アルゴリズム SVM学習に適した回帰分析です。
0.69
The and effectiveselect how depends on to SVM mainly the 3) and parameters, the kernel’s the 2) soft marFedSVM we In parameter.
効果的に選択する方法は、主にSVMに依存します 3)とパラメータ、カーネルの2)ソフトmarFedSVM We Inパラメータです。
0.75
work, use this with a SVM specifies kernel.
SVM指定カーネルでこれを使用してください。
0.78
parameters and intercepts, the SVM models In FL, by integrated can be avthe to meet intercepts need first proposed classificafor mobile packet failure preour in Fig shown 1. is given by Algo.
パラメータとインターセプト fl の svm モデルは、統合によって avthe となり、インターセプトを満たすには、最初に提案されたモバイルパケット障害のクラスifica for mobile packet failure preour in fig shown 1. is given by algo である。
0.58
of FedSVM steps
FedSVM ステップの
0.79
a supervised As classification for ness of kernel, gin linear which can be directly weighted.
a 監督された カーネルの ness の分類として、直接重み付けできる gin linear である。
0.68
clients on generated different eraging parameters the and of the server.
クライアントはサーバとサーバの異なる消去パラメータを生成した。
0.78
The FedSVM algorithm is in Bakopoulou et (2019) al.
FedSVMアルゴリズムはBakopoulou et (2019) alにあります。
0.78
tion. We have diction The and Algo.
禁忌だ ディクションTheとAlgoがあります。
0.33
1 2, explained are ◦
1 2 と説明される。
0.80
adapted their FedSVM to process is server and respectively.
FedSVMをそれぞれサーバとプロセスに適応させた。
0.80
The main hereafter. problem.
メインはその後。 問題よ
0.65
algorithm of training client
アルゴリズム トレーニングクライアント
0.62
Its the initialization: The (Ci) random
そのこと 初期化: (Ci) ランダム
0.68
server train models using of parameters
パラメータを用いたサーバトレインモデル
0.77
to value (S) the and
to value (S)と
0.76
nolocal inter- S1. Parameter each client tifies with data cepts (w0).
地方間 S1。 パラメータ 各クライアントは、データ cepts (w0) で指定する。
0.68
S2. Local independently. local S3.
S2。 地域独立。 ローカルS3。
0.75
Return trained locally parameters S. this to S4.
訓練されたローカルパラメータSをS4に返します。
0.67
Compute global erages
Compute Global Erages
0.76
training: Ci trained
トレーニング:Ci 訓練
0.68
values round the
値 ラウンド はあ?
0.58
◦ ◦ ◦ trains the
◦ ◦ ◦ 列車 はあ?
0.68
local SVM model
ローカルSVMモデル
0.80
SVM parameters: Ci intercepts
SVMパラメータ: Ciインターセプト
0.73
and returns (wi t) in
そして 返します(wi t)。
0.71
SVM parameters: successive
SVMパラメータ:逐次
0.77
two in S avround
二 で S avround
0.76
英語(論文から抽出)
日本語訳
スコア
Failure Prediction in Production Line Based
故障予測 生産中 線ベース
0.69
on Federated
オン フェデレーション
0.57
Learning: An Empirical Study
学習: 経験的な 研究
0.68
5 ◦ ◦ as the
5 ◦ ◦ として はあ?
0.68
value wt ((cid:80) wi t +wt−1)/2 MG. global Send S5.
value wt ((cid:80) wi t +wt−1)/2 MG.global Send S5。
0.80
value wt global in next round.
次回のラウンドで グローバルに価値を
0.71
convergence: Repeat S6.
収束: S6 を繰り返す。
0.75
Repeat of number iterationsa S5 in global model vergence.
global model vergence における s5 の繰り返し。
0.75
The the as to clients the training result.
クライアントとしてのtheは、トレーニング結果です。
0.67
SVM parameter: the train
SVMパラメータ:列車
0.65
until specified in the to Ci
指定まで では ciへ
0.72
after last all
その後 最後に 全部
0.64
MG to global model
MG へ グローバルモデル
0.74
the S sends the model of
S はモデルの送信を行います。
0.67
steps until round is
ラウンドまでのステップは
0.77
S2 consent Fig.
S2同意 フィギュア。
0.56
1: The Training Process of
1:訓練過程 ですから
0.60
FedSVM Server
FedSVM サーバー
0.83
training SVM model FedSVMSVM model
訓練 SVMモデル FedSVMSVMモデル
0.80
Algorithm 2 Local Input: Global Output: w1 ←(cid:80)k 1: Inform all clients start Receive wi from all 2: clients 1 wi 3: 1 i=1 k to Send w1 4: all clients 2 (wt−1 +(cid:80)k t = 2 5: epoch for to N do Receive wi 6: from all t wt ← 1 7: i=1 all to 8: Send wt clients 9: for end
アルゴリズム2 ローカルインプット: グローバルアウトプット: w1 (cid:80)k 1: Inform all client start receivee wi from all 2: client 1 wi 3: 1 i=1 k to Send w1 4: all client 2 (wt−1 +(cid:80)k t = 2 5: epoch for to N do Receive wi 6: from all t wt > 1 7: i=1 all to 8: Send wt client 9: for end
0.92
clients wi ) t k
クライアント wi) t k
0.77
(cid:46) S1
(cid:46) S1
0.78
(cid:46) (cid:46) (cid:46)
(cid:46)(cid:46)
0.86
S4 S5 S6 (cid:46) (cid:46)
S4 S5 S6 (cid:46)(cid:46)
0.69
S4 S5 on FedSVM - Client (i = 1 client
S4 S5 オン FedSVM - クライアント (i = 1 クライアント)
0.75
Algorithm 1 Data set Di client Input: i Local on SVM model Output: Initialize wi 1: 0 1 ← SVM(wi wi 0, Di) 2: Send wi server to 3: 1 4: t = 2 do for epoch to N global model wt−1 5: Receive t ← SVM(wt−1, Di) wi 6: Send wi 7: server to t 8: for
Algorithm 1 Dataset Di client Input: i Local on SVM model Output: Initialize wi 1: 0 1 シュ SVM(wi wi 0, Di) 2: Send wi server to 3: 1 4: t = 2 do for epoch to N global model wt−1 5: Receive t シュ SVM(wt−1, Di) wi 6: Send wi 7: server to t 8: for
Because each feature the Gini coefficient of the knows also the client, on feature client the only is Gini the samples, of labels the classification all so the the calculated coefficient by client represents global Gini coefficient.
Ci obtains the optimal diviand coefficient, corresponding Gini and feature sion also feature.
Ci は最適二乗係数、対応するジーニ、特徴量も得られる。
0.62
Ci this threshold division the retain of tree decision checks whether the accuracy the is of improved this optimal feature partition, and if on there pre-pruning that judges it improvement, no is needed.
Send the S required, not notifies the ID return result; division clients all perform pruning to node.
必要な S を送信し、ID の戻り結果を通知しません。 訳抜け防止モード: 必要なSを送信し、IDの返却結果を通知しない ディビジョンクライアントはすべてノードへのプルーニングを実行します。
0.67
leaf decision: When local Send S6.
葉の決定:ローカルS6を送る時。
0.71
returns the required, notified feature dataset with viding the subtrees).
必要な、通知されたフィーチャーデータセットをサブツリーのバイディングで返します)。
0.48
the falls into and left notifies decision: S global Broadcast S7.
S Global Broadcast S7。
0.25
first the forms and division ID of clients the of the knows Ci the of results decision tree.
まず、クライアントのフォームと分割IDは、結果決定ツリーのCiを知っています。
0.67
existence knows ID division, but only the of the tree.
存在はIDの分割を知っていますが、ツリーのみです。
0.66
S global in features structure knows the feature corresponding the and entire the tree establish recursively Ci node.
s global in features構造は、再帰的なciノードを確立するツリーと全体に対応する機能を知っている。
0.70
of each S and nodes and their left and right subtrees according F(cid:48) D(cid:48) they the nodes.
各Sおよびノードとその左右のサブツリーのうち、F(cid:48)D(cid:48)はノードである。
0.79
form leaf until and current built: until N tree S8.
葉を形成、現在の構築:N木S8まで。
0.79
Repeat trees form a N decision random forest.
繰り返し木はN決定ランダム森林を形成する。
0.83
is pruning features: If client corresponding to notifies S otherwise, processing to form a
pruning features: s に対応するクライアントが s に通知した場合、a を形成する処理
0.76
other node each local of names new to
他のノードは、新しい名前のローカル
0.77
not is pruning of result the dithat (the ID set
not は結果の pruning (ID セット) です。
0.72
global optimal optimal optimal feature.
グローバル最適最適 最適な特徴。
0.71
client this right
クライアント この右
0.71
uploads to features: S
アップロードする 特徴:S
0.74
pre-pruning information
プレプルーニング 情報
0.65
Iteratively selects
反復 selects
0.67
build the Ci to
造る はあ? ci へ
0.58
◦ ◦ ◦ ◦ ◦ ◦
◦ ◦ ◦ ◦ ◦ ◦
0.85
◦ The prediction process alyzes
◦ 予測過程 alyzes
0.76
the new data ID according
新しいデータは ID
0.63
is described as the to
と記述されています へ
0.62
follows. Ci anstored tree.
次だ ci anstored treeの略。
0.57
For to k) then
のために へ k) じゃあ
0.65
(cid:48) i ) T
(cid:48) i ) T
0.92
then S2 (cid:46)
S2 (cid:46)
0.79
(cid:46) S3
(cid:46) S3
0.78
then (cid:48) , F on
じゃあ (cid:48) , F on
0.77
(cid:48) i
(cid:48) 私は
0.66
client (i = 1
クライアント (i=1)
0.83
set D, from S the S
セットD。 Sから S
0.60
FedRF improve to
FedRF 改善する
0.80
cannot needP runingi
不要P runingi
0.54
= D − D , T ) same the
D − D , T ) は同じである。
0.88
Algorithm 3 - Client Data set feature on Input: Fi Local FedRF model on Ci Output: 1: t = 1 for epoch do to N (cid:48) (cid:48) ⊆ D, ⊆ Fi, D Receive 2: T F i (cid:48) (cid:48) function TreeBuild(D 3: , F i (cid:48) all in D samples 4: have label if 5: return leaf node 6: end if BestFi, GiniP arai, thresholdi ← Gini(D 7: 8: accuracy BestFi if Send 9: 10: if 11: 12: 13: 14: 15: 16: 17: 18: 19: 20: 21: 22: 23: 24: 25: 26: 27:
アルゴリズム 3 - クライアントデータセット機能 入力: Fi ローカル FedRF モデル on Ci 出力: 1: t = 1 for epoch do to N (cid:48) (cid:48) ・ D, ・ Fi, D Receive 2: T F i (cid:48) (cid:48) function TreeBuild(D 3: , F i (cid:48) all in D sample 4: have label if 5: return leaf node 6: end if BestFi, GiniP arai, thresholdi ・ Gini(D 7: 8: accuracy BestFi if Send 9: 10: If 11: 12: 13: 15: 15: 16: 18: 20: 22: 23: 25: 26: 27: 27: 30: 20: 21: 23: 23: 25: 27: 30: 12: 12: 12: 12: 15: 23: 23: 23: 23: 26: 30: 30: 27: 30: 30: 30: 30: 30: 30: 30: 30: 30: 30: 30: 30: 30: 30: 30: 30: 30: 30: 30: 30: 30: 30: 27: 27: 27: 30: 27: 27: 27: 27: 30: 30: 30: 30: 30: 30: 30 訳抜け防止モード: アルゴリズム3 - 入力に関するクライアントデータセット機能 : Ci出力上のFi Local FedRFモデル : 1 : t = 1 for epoch do to N ( cid:48 ) ( cid:48 ) ^ D, ... Fi, D Receive 2 : T F i ( cid:48 ) ( cid:48 ) function TreeBuild(D 3 :, F i ( cid:48 ) all in D sample 4 : have label if 5 : return leaf node 6 : end if BestFi, GiniP arai , thresholdi ← Gini(D 7 : 8 : accuracy BestFi if Send 9 : 10 : if 11 : 12 : 13 : 14 : 15 : 16 : 17 : 18 : 19 : 20 : 21 : 22 : 23 : 24 : 25 : 26 : 27 :
0.85
end to Send BestFi, GiniP arai S (cid:48)P rune(cid:48) message from S Receive if leaf node return (cid:48)Success(cid: 48) message Receive from S if (cid:48) (cid:48) (cid:48) with BestFi, get D Split D l , D r, Tl, Tr (cid:48) (cid:48) Send D to l , D r, Tl, Tr S (cid:48) (cid:48) leftTree ← TreeBuild(D l , F i (cid:48) rightTree ← TreeBuild(D r, F else (cid:48) from S Receive D r, Tl, Tr (cid:48) (cid:48) leftTree ← TreeBuild(D l , F i (cid:48) rightTree ← TreeBuild(D r, F end if tree return function this
end to Send BestFi, GiniP arai S (cid:48)P rune(cid:48) message from S Receive if leaf node return (cid:48)Success(cid: 48) message Receive from S if (cid:48) (cid:48) (cid:48) with BestFi, get D Split D l , D r, Tl, Tr (cid:48) (cid:48) Send D to l , D r, Tl, Tr S (cid:48) (cid:48) leftTree ← TreeBuild(D l , F i (cid:48) rightTree ← TreeBuild(D r, F else (cid:48) from S Receive D r, Tl, Tr (cid:48) (cid:48) leftTree ← TreeBuild(D l , F i (cid:48) rightTree ← TreeBuild(D r, F end if tree return function this
0.97
, Tl) (cid:48) , Tr) i
, Tl) (cid:48) , Tr) i
1.00
, Tl) (cid:48) , Tr) i
, Tl) (cid:48) , Tr) i
1.00
end Add for decision
end 追加。 決定
0.73
(cid:48) l , D
(cid:48) l, D
0.90
forest node then
森林 node じゃあ
0.77
tree else end to
木 その他 終わり へ
0.66
on all clients
オン 全部 クライアント
0.70
= D − D (cid:48)
= D − D (cid:48)
0.82
to Ci (cid:46)
ciへ (cid:46)
0.74
S1 the same
S1 はあ? 同じだ
0.59
label then , needP runingk i i=1, key = GiniP arai)
ラベル じゃあ , needP runingk i=1, key = GiniP arai)
0.73
i = 1 Send for
i = 1 Send for
0.85
Algorithm 4 Sample Input: Global Output: t = 1 1: epoch for 2: to for (cid:48) 3: F i 4: 5: 6: 7: 8: 9: 10: 11: 12: 13: 14: 15: 16: 17: 18: 19: 20: 21: 22: 23:
アルゴリズム4 サンプル入力:グローバルアウトプット: t = 1 1: epoch for 2: to for (cid:48) 3: F i 4: 5: 6: 8: 8: 9: 10: 11: 12: 13: 14: 14: 15: 16: 17: 17: 18: 19: 21: 22: 23: 23: 23:
0.87
end Server FedRFID, names feature FedForest model do to N k do (cid:48) ⊆ Fi, D ⊆ D, end (cid:48) function TreeBuild(D , T ) (cid:48) in D have node
終わり Server FedRFID, name feature FedForest model do to N k do (cid:48) > Fi, D , D, end (cid:48) function TreeBuild(D , T ) (cid:48) in D have node
0.85
samples all return leaf if
サンプルが全葉を返したら
0.72
if T then to Ci
もし T その後、Ciへ
0.75
, GiniP arak i
、GiniP arak i
0.76
end Receive BestF k i BestFs = M ax(BestF k needP runings == T rue if (cid:48)P rune(cid:48) message Send return leaf node if end (cid:48)Success(cid: 48) message to C Send (cid:48) (cid:48) from Ci Receive D r, Tl, Tr l , D (cid:48) (cid:48) other Ci to Send D l , D r, Tl, Tr (cid:48) leftTree ← TreeBuild(D l , Tl) (cid:48) rightTree ← TreeBuild(D r, Tr) tree return function end Add this for
end Receive BestF k i BestFs = M ax(BestF k needP runings == T rue if (cid:48)P rune(cid:48) message Send return leaf node if end (cid:48)Success(cid: 48) message to C Send (cid:48) (cid:48) from Ci Receive D r, Tl, Tr l , D (cid:48) other Ci to Send D l , D r, Tl, Tr (cid:48) leftTree > TreeBuild(D l , Tl) (cid:48) rightTree > TreeBuild(D r, Tr) return tree function for this end
0.95
decision forest node
決定 森林 node
0.81
tree to (cid:46)
木 へ (cid:46)
0.70
S6 (cid:46)
S6 (cid:46)
0.78
S7 (cid:46)
S7 (cid:46)
0.78
S7 (cid:46)
S7 (cid:46)
0.78
S8 (cid:46) (cid:46)
S8 (cid:46)(cid:46)
0.75
S3 S4 (cid:46)
S3 S4 (cid:46)
0.75
S5 (cid:46)
S5 (cid:46)
0.78
S7 (cid:46)
S7 (cid:46)
0.78
S8
S8
0.78
英語(論文から抽出)
日本語訳
スコア
Failure Prediction in Production Line Based
故障予測 生産中 線ベース
0.69
on Federated
オン フェデレーション
0.57
Learning: An Empirical Study
学習: 経験的な 研究
0.68
7 Fig. 2: The Training Process
7 フィギュア。 2: トレーニングプロセス。
0.67
of FedRF
ですから FedRF
0.69
is node subtrees.
は nodeサブツリー。
0.67
When encountered, unknown an when each sample, the enters left the and right the sample the dividing (that means, known is node encountered client’s dataset), belongs node this this to of feature subtree according enters corresponding the sample the final data that falls threshold of the feature.
The concerns (RQ), each of which association logical as four RQs the between 3. shown in the whole Bosch difference same the
関連性(RQ)は、それぞれが4つのRQとして論理的であり、ボッシュ全体の3間の関係は同じである。
0.68
dataset, is FedSVM for FedRF
データセットはFedRF用のFedSVMである
0.60
testing between question this production
質問間のテスト この生産は
0.78
Fig. RQ1: On
フィギュア。 RQ1:オン
0.67
a SVM? We significant ask
SVM? 私たち 重要な質問
0.63
the research depicted,
研究は 描かれています
0.56
RF. We two on
RF。 私たち 二 オン
0.70
is there and and RF.
は そこにおよびRF。
0.74
comparing the average performance testBosch algorithms on the each of value between difference the = it δ 0.1), threshold within is the difference significant no there that considered is on algorithms this pair of the Bosch testing
Fig. 3: Experiment Overview and Research Questions
フィギュア。 3:実験の概要と研究課題
0.64
RQ2 is aimed at comparing the average performance of the CL FL and algorithms partial on the random that dataset Bosch testing timeconsecutive contains results prediction the samples.
comparing the average performance estimated on algorithms the unknown CL designed RQ, answer we have this a To distribution the error of and compare the on data unknown estimated shown in Fig 4.
and of parameters is MFL MCL difference between the on similar will maintain if production line
そして変数のMFL MCLの相違は生産ラインが維持すれば同じようなです。
0.78
Bosch the ◦
ボッシュ はあ? ◦
0.56
and quality
そして quality
0.78
control process,
コントロール プロセス
0.62
testing impact heterogeneous?
テストの影響 不均一?
0.64
heterogeneity manufacturing structure, are not changed.
異質性 製造構造は変わっていません
0.71
methods data Bosch RQ4: Is the what And of data is of RQ1-RQ3?
メソッドデータ Bosch RQ4:データとRQ1-RQ3とは何ですか?
0.87
results the on on heterogeneity RQ4 analyzes the of impact data heterogeneity the evaluate of RQ1-RQ3.
その結果、RQ4はRQ1-RQ3の評価する影響データ不均一性を分析します。
0.65
To results the selected randomly of first of data, we obtain N groups Di, labels GT then samples continuous and uses the state (GT positive as states and GT negative state) to Si we Then GT.
最初のデータの選択されたランダムな結果を得るために、私たちはNグループDiを取得し、GTをラベル付けし、連続的にサンプルし、Si We Then GTに状態(GT陽性、GT負の状態)を使用します。
0.66
transition construct the state Mi perform DBusing the Markov model fit GT parameter the Ester SCAN et al.
transition construct the state Mi perform DBusing the Markov model fit GT parameters the Ester SCAN et al.
0.85
clustering Mi clustering the shows multiple If GT.
クラスタリング Mi クラスタリングは複数の If GT を示す。
0.80
matrix of heterogenedata different that means it clusters, distance is ity strong.
ヘテロゲネダタのマトリックスは、それがクラスターを意味する異なる、距離は強いです。
0.62
DBSCAN calculates between two matrices parameter matrices two the into a one-dimensional anless gle between the the than the two-parameter matrices same cluster.
the strong, is heterogeneity data the If the then conclusion will are Y, to RQ1-RQ3 manufacturing strengthened.
強い、不均質データです 結論がYであれば、RQ1-RQ3製造が強化されます。 訳抜け防止モード: The strong, is heterogeneity data: if the then conclusion will be Y, RQ1-RQ3製造強化。
0.86
our In ther can CL and the algorithms FL diction and results replace can heterogeneity If is data the in RQ1-RQ3 it means is N,
我々の in ther can cl とアルゴリズム fl diction and results replace any heterogeneity if is data the in rq1-rq3 it means is n,
0.84
obtain other. each some and strong answer heterogeneity that data
他を入手する。 各々の強い答えは データの異質性に
0.56
answers furbe scenario, pre-
答えはfurbeのシナリオ、pre-
0.61
similar and
類似 そして
0.73
英語(論文から抽出)
日本語訳
スコア
Failure Prediction in Production Line Based
故障予測 生産中 線ベース
0.69
on Federated
オン フェデレーション
0.57
Learning: An Empirical Study
学習: 経験的な 研究
0.68
9 Fig. 4: Comparing
9 フィギュア。 4:比較
0.69
FL and CL algorithms
FL そしてclは アルゴリズム
0.71
on the Estimated Unknown Bosch Data
オン 推定された未知のボッシュデータ
0.61
◦ ◦ of for
◦ ◦ ですから ですから
0.70
the one disturbing reasons
はあ? 一つ 乱れ 理由
0.59
may be sions. weak and heterogeneity If the data can to RQ1-RQ3 concluded it are Y, algorithm can replace the CL one under data homogeneity.
シオンかもしれない もしデータが RQ1-RQ3 に対して Y であると結論づければ、アルゴリズムはデータ均質性の下で CL を置き換えることができる。
0.65
of the If data in RQ1-RQ3 cannot
RQ1-RQ3 の if データの
0.81
is it means even with
たとえ意味があっても
0.78
heterogeneity is N, replace CL
異質性は CL を置き換えます。
0.72
is be some weak that FL homogeneous
is be ♪ FLが均質である弱点
0.67
and the answer algorithm data.
そして アルゴリズムデータに答える。
0.65
4.2 Measurements of
4.2 計測 ですから
0.61
the one and
はあ? 一つ そして
0.57
used (PRE), commonly
使用 (PRE) 一般に
0.66
analysis methods (ACC), Precision
分析方法 (ACC)精度
0.69
are (MCC) the in use
使用中である(MCC)
0.73
system. testing and CL
システムだ テストとCL
0.72
in MSA is learning-based manufacturing Montgomery (2007).
MSAでは、学習ベースの製造Montgomery(2007)です。
0.64
The seen as a product qualfailure prediction method can be company’s the Bosch Taking ity measurement benchmark, we results quality product a can as the MSA algorithms analyze the FL through in MSA mainly method.
The six measureare study empirical we ments in provided of GT positive Table 3, where P represents the number cases, TP of GT negative cases, N is (hit) negative, is true rejection) is true FP (false false is and FN (miss) negative.
MCC of rethe prediction evaluating for used commonly a AUC is data.
MCC 一般的に使用されるAUCの予測評価はデータです。
0.62
sults the its and is value method, evaluation two-category line.
sults its and is value method, evaluation two-category line。
0.81
reference and the ROC curve the by enclosed area and rate, false positive the is a ROC curve of The x-axis is curve a ROC the true positive rate.
参照およびROCのカーブは封じられた区域および率によって、偽陽性ですx軸のROCのカーブはカーブROCです真の正の率です。 訳抜け防止モード: 基準とROC曲線は、囲まれた面積とレートによって表される。 false positive the is a ROC curve of The x - axis is curve a ROC the true positive rate .
0.92
It the y-axis of sensitivity clinical relationship shows and between the graph with: specificity for It is a
感度臨床関係のy軸とグラフ間の関係: it の特異性は a である
0.80
is suitable unbalanced positive, TN (correct
バランスがとれず TN (複数形 TNs)
0.69
positive, possible number
ポジティブ 可能 番号
0.61
cut-off. alarm)
カットオフ。 警報)
0.66
every false the
すべて false はあ?
0.62
is the conclu-
は はあ? conclu―conclu
0.54
Table 3: Measurements answers the that the FL the premise
テーブル 3:測定 FLが前提であることに答える
0.79
Measurement Formula ACC TP + TN
測定 公式 ACC TP + TN
0.77
F1 PRE AUC MCC
F1 序 AUC MCC
0.73
Stability TP × TN − FP × FN
安定性 TP × TN − FP × FN
0.77
TP + FN + TN + FP TP TP + FP 2TP (cid:112)(TP + FP)(TP + FN)(TN + FP)(TN + FN) 2TP + FP + FN enclosed area The curve ROC by the reference the and line for N groups of tendency The accuracy of continuous random data selected group.
(cid:0)= FP/(FP + TN)(cid:1) The (cid:0)= TP/(TP + FN)(cid:1).
(cid:0)=FP/(FP + TN)(cid:1)=TP/(TP + FN)(cid:1)。
0.94
The 1-specificity The x-axis range y-axis showing sensitivity 1. and is of AUC value 0 between Stability measurethe of ability the characterizes system to maintain a constant performance within ment into set divide range.
We the test N time a certain time-series according on average the to (N = 10) groups of accuracy the and calculate these N groups to analyze the of the stability target algorithm.
実験Nでは、ある時系列を精度の to (N = 10) グループの平均値に従って時間し、これらの N グループを計算し、安定性目標アルゴリズムの解析を行う。
0.83
showing 4.3 Bosch Dataset
表示 4.3 Bosch データセット
0.65
is the datasets of a (1183748
は はあ? a(1183748)のデータセット
0.61
The Bosch dataset turing consists set features: feature, ing the
Boschデータセットのチューリングは、以下の機能で構成されています。
0.57
largest public manufacof one dataset on Kaggle.
kaggleで最大の公開manufacof oneデータセット。
0.76
The Bosch (14.3Gb) test and samples) (1184687 set training a of has sample Each types samples).
three and feature, numeric feature, date two-category indicatlabel classification status
3と特徴,数値的特徴,日付2カテゴリーの分類状況
0.83
categorical and a faulty
カテゴリー的で欠陥がある
0.55
product. of a
製品。 ですから あ...
0.48
英語(論文から抽出)
日本語訳
スコア
10 Ning Ge et al.
10 ニンゲ など アル
0.54
of of on each the
ですから について それぞれが
0.58
research data on the features
研究データ 特徴について
0.74
estimated are shown in the dataset,
見積はデータセットに示されます
0.73
the time passes. the LSTM neural
時間が過ぎます。 LSTMニューラルは
0.68
site stamp Based date timed behavior.
サイトスタンプベースの日時指定行動。
0.70
Exnetwork al.
Exnetwork al。
0.79
et (2019). without from inem-
と2019年)。 inemを使わずに。
0.50
gives feature date The product which the through to analyze is possible it feature, constructed studies have isting time-series on based models Huang information (2020d); al.
unknown pirical The 4. in Table There are 1184687 products including 1177808 pos(Pos) and 6879 negative ones samples itive In the space, feature the features.
testing the on RF and FedRF compare To lines production three first that the assumed is it data, same to belong dataset the Bosch the (L0, of L2) L1, to belongs line production the L3 organization O1, and independent.
O1 another ID and same have the and O2 samples Since in O1 the data The applied.
o1 ではデータが適用されるため、別の id と o2 のサンプルが同じである。
0.69
set is characteristics, different VFL shown in Table 6.
設定は特性、表6に示す異なるVFLです。
0.77
We the FedRF experiment used in is features L2 and L1, L0, to the extract as belonging the another features and a group, belonging to L3 as analysis perform principal we Then group.
We used in the FedRF experiment in in the feature L2, L1, L0, to the extract as belonging the other features and a group, belongs to a analysis as principal we then group。
0.81
component feature reduce (PCA) to the from over22/22, to 723/245 respectively.
コンポーネント機能(PCA)を22/22以上から723/245まで減らします。
0.71
According of PCA results, all analysis can reducing represent more 95% of 22 to dimensions, cause too posiThe information much tive and negative and 6000, respectively.
pcaの結果によると、すべての分析は22次元のうち95%以上を減少させ、それぞれ負と負の情報が多すぎる。 訳抜け防止モード: PCAの結果によると、全ての分析は22次元の95%以上を削減できる。 cause too posiThe information much tive and negative, and 6000。
0.69
first the variance, than so the not respectively, which will (2016).
まず、ばらつき(distribution)は、それぞれがそうではないもの(2016年)である。
0.55
al. Zhang loss et sample are numbers 12000
アル Zhang loss et sample is number 12000
0.58
in O1/O2 the dimensions dimension
O1/O2の次元 次元
0.69
22 to Table 4: Bosch
22 へ テーブル 4:ボッシュ
0.74
dataset Sample Num (1184687) Positive Negative 1177808
データセット サンプル番号(1184687)陽性陰性1177808。
0.67
6879 Features Num (968) L3 L0 168 245
6879 特徴 Num (968) L3 L0 168 245
0.89
L1 513 L2 42
L1 513 L2 42
0.88
Table 6: Data Description
テーブル 6:データ記述。
0.83
for VFL Scenario Sample Num
VFL用 シナリオ サンプル番号
0.76
Positive Negative Total Client O1 Client O2
陽性 負 総 クライアント O1 クライアント O2
0.64
12000 6000
12000 6000
0.85
Feature Num 44 F44) F22) 22 22F44)
特徴 Num 44 F44) F22) 22 22F44
0.88
(F1 (F1(F23
(F1(F1)(F23)
0.64
4.4 Experiment Scenarios
4.4 実験 シナリオ
0.61
of HFL and VFL
hflの そしてvfl
0.63
5 Experiment Results the SVM on
5実験結果 はあ? SVM
0.56
compare FedSVM and
FedSVMとFedSVMの比較
0.67
To form four workshops A, B, C, data manufacturing have but production the configuration of are features the that product and ferent samples, each sample workshop can be regarded as shows 5 ble 4 on of the samples ber the experiment, the data average, all to clients on positive and 1500 negative have features
data, we testing share do not structure and premise the contain difID.
データ、テストの共有は、contained difIDの構造や設定はしません。
0.69
Each client. Taexperiment.
各クライアント。 実験。
0.72
The numthe data used in this the basically In is clients distributed randomly is set which 3000 each of possesses samples.
基本的にInはランダムに分散されたクライアントであり、それぞれ3000がサンプルを持っている。
0.67
The four workshops of
4つのワークショップ
0.69
and D that the same line.
そして、同じラインをD。
0.69
Under they aligned, has a unique an independent
その下には独特な独立性があり
0.70
common same. data.
共通 同じだ データだ
0.70
713 experiments Our questions.
713 実験 我々の質問だ
0.77
investigate and answer four
調査 そして 答え 四
0.71
research 5.1 RQ1: Comparison
研究 5.1 RQ1: 比較
0.74
on Bosch Testing Data
Boschテストデータについて
0.74
5.1.1 FedSVM vs.
5.1.1 FedSVM vs.
0.62
SVM 7 the shows
SVM 7 はあ? ショー
0.68
experimental ensure Table consistent, the data set and the algorithm kernel are result the is the number baseline FedSVM when of into ie., set is clients FedSVM degenerates 1, to premise, this Under the FedSVM and
value The and AUC, within are all the Therefore, is that the prediction data testing Bosch the In 5, FedSVM performs
value The and AUC, in the all are, is the prediction data testing Bosch the In 5 FedSVM
0.68
ACC, F1, MCC, Precision, between SVM FedSVM and a value of respectively.
ACC、F1、MCC、Precisionは、それぞれSVM FedSVMと値の間にある。
0.74
0.1, on FedSVM and SVM conclusion of RQ1 results of FedSVM and SVM on different.
FedSVMとSVMのRQ1結果のFedSVMとSVMの結論が異なる。
0.59
significantly not are than slightly better SVM on two test groups, namely 1 and 7.
2つのテストグループ、すなわち1と7では、SVMがわずかに改善されている。
0.70
Similar results Table are 7. in measure Precision the shown where This scenario, HFL in shown the is central the the to features data local contribute server.
The in Table 8. are shown degenerates clients two combining of FedRF and RF can effect the compared be of premise ensuring the of the consistency kernel.
The are group each 8, Table given is in the overall are shown in Fig.
各グループ8、与えられたテーブルは、全体は図に示されています。
0.75
6. FedRF so that the under data testing stabilthe on average of stability stability
6. FedRFは、データ下テストが安定性の平均を安定させる
0.86
of results the of
結果が The of ~
0.72
and Table 8: Experiment Results
そして テーブル 8:実験結果
0.78
of RQ1 on FedRF/RF
rq1の オン FedRF/RF
0.66
Algo. ACC PRE
アルゴ。 ACC 序
0.56
F1 MCC AUC
F1 MCC AUC
0.83
FedRF RF Diff
FedRF RF ディフ
0.81
0.843 0.868 -0.025
0.843 0.868 -0.025
0.43
0.808 0.836 -0.028
0.808 0.836 -0.028
0.43
0.894 0.909 -0.015
0.894 0.909 -0.015
0.43
0.659 0.713 -0.054
0.659 0.713 -0.054
0.43
0.902 0.912 -0.010
0.902 0.912 -0.010
0.43
Stab. (Var)
Stab (Var)
0.67
0.004 0.002 0.002
0.004 0.002 0.002
0.47
Fig. 6: FedRF
フィギュア。 6: FedRF
0.71
vs. RF on Stability
vs. RF オン 安定性
0.74
value and The AUC, 0.1.
価値と AUC、0.1。
0.75
Therefore, on the Bosch
よってボッシュについて
0.62
ACC, difference of on (Var) each results prediction data are not
ACC, on(Var)の各結果予測データが異なります。
0.80
Stability the testing Precision, group are FedRF of significantly
テストの安定性 精度、グループ、FedRFは極めて高い。
0.75
F1, MCC, all within and RF different.
F1、MCC、すべての内部とRFが異なります。
0.75
5.2 RQ2: Comparison Testing Data
5.2 RQ2: 比較テストデータ
0.80
on Random Partial Bosch
ランダム部分ボッシュについて
0.50
order In FL and data, we
order in FL and data, we
0.83
the compare algorithms to CL randomly
比較アルゴリズムは CL (複数形 CLs)
0.59
average in randomly select N groups
平均では ランダムに選択するN群
0.76
sampling (N=100) of
サンプリング (N=100)
0.87
difference between the partial testing
違い 間 部分検査は
0.69
英語(論文から抽出)
日本語訳
スコア
12 Ning Ge et al.
12 ニンゲ など アル
0.54
samples. ples.
サンプル ples.
0.66
The L is randomly Each starting
Lは ランダムに 各開始
0.64
group contains L S point the of generated from the
グループ から生成された L S 点を含む
0.81
time-continuous randomly group is interval [300,
time-continuous randomly group is interval [300,
0.96
samset. 1000].
サムセット 1000].
0.53
5.2.1 FedSVM vs.
5.2.1 FedSVM vs.
0.62
SVM of FedSVM and the prediction results of charts The line In 7. charts, all Fig.
SVM fedsvmとチャートの予測結果は7. 図で示されています。
0.76
in shown groups 100 SVM on are 100 number groups.
表示されたグループで 100 SVM 上の 100 個の数グループです。
0.66
The the of is abscissa the the serial on each group.
the は abscissa であり、各グループの直列である。
0.57
the measurement is ordinate the value of red line represent the dot-dash solid The blue line and respectively.
測定は、ドットダッシュ固体を表す赤線の値と、青色線を表す値とを定式化する。
0.74
SVM, and FedSVM of result prediction differrange the can the Through see and charts, we the FedSVM and of ence SVM on the prediction results of each group.
結果予測のSVMとFedSVMは、各グループの予測結果について、Some see と charts, we the FedSVM and ence SVM。
0.66
the average differvisualize We draw a histogram to each measurement SVM on between FedSVM and ence of data, groups on as 100 in shown Fig.
for 8. Based difference the in ACC, values results, F1 all PRE, and and values difference The 0.1. all are within in MCC validated is within are AUC mostly 0.2.
8。 acc, value results, f1 all pre, and value difference the 0.1. 検証されたmcc内のすべての値は、ほぼ0.2である。
0.66
It thus that random parSVM on of performance the FedSVM and tial Bosch testing data significantly different.
したがって、FedSVM と Tial Bosch のテストデータでは、パフォーマンスのランダムな parSVM が大幅に異なる。
0.75
not is (a) ACC Values
だめだ は (a)ACC値
0.68
of FedSVM and
ですから FedSVMと
0.68
SVM (b) PRE Values
SVM (b)事前値
0.78
of FedSVM and
ですから FedSVMと
0.68
SVM 5.2.2 FedRF
SVM 5.2.2 FedRF
0.70
vs. RF (c)
vs. RF (c)
0.87
F1 Values of FedSVM and
F1値 ですから FedSVMと
0.73
SVM of samabscissa value of line blue result of
SVM ラインブルーの結果のサマバスシッサの値の
0.77
In 9. all The groups.
9. すべてのグループ。
0.75
group. each on represent line the respectively.
グループだ それぞれがラインを表しています
0.69
and RF, the groups of FedRF and RF on 100 charts line The the charts, in Fig are ples shown line the of is number the is ordinate The measurements the solid red and dot-dash prediction FedRF the histogram of We draw a differences between FeRF and dRF on of 100 for measurement groups each shown data, as the results, on Based 10.
Fig. in all AUC F1, PRE, values difference in ACC, and are all within 0.1.
フィギュア。 すべての AUC F1, PRE では、ACC の値の差は0.1 以内である。
0.63
The difference values in MCC are within are within 80% groups over the MCC values and 0.2, of FedRF of performance validated thus 0.1. that It is the the and RF on random partial Bosch testing data is not significantly different.
This experiment CL algorithms the estimated conducted
この実験CLアルゴリズムは、推定された
0.73
is can maintain no unknown Bosch the method
未知のボッシュのメソッドを維持できない
0.65
following the FL and on significant difference experiment data.
以下 FLおよび重要な相違の実験データ。
0.72
This is presented in Sect.
これはSectで示されています。
0.53
4. analyze whether used
4. 分析して 使用
0.76
to
へ
0.63
英語(論文から抽出)
日本語訳
スコア
Failure Prediction in Production Line Based
故障予測 生産中 線ベース
0.69
on Federated
オン フェデレーション
0.57
Learning: An Empirical Study
学習: 経験的な 研究
0.68
13 (a) ACC Difference
13 (a)ACC差分
0.83
(b) PRE Difference (a) ACC Values
(b)事前差分 (a)ACC値
0.76
of FedRF
ですから FedRF
0.69
and RF (c) F1 Difference
RF (c) F1の違い
0.66
(d) MCC Difference (b) PRE Values
(d)MCCの違い (b)事前値
0.80
of FedRF
ですから FedRF
0.69
and RF (e) AUC Difference
RF (e) AUC差
0.64
(c) F1 Values of
(c) F1値 ですから
0.74
FedRF and RF 8:
FedRF RF 8:
0.73
Fig. of Partial Testing Data
フィギュア。 部分的なテストデータの
0.56
Difference FedSVM and
違い FedSVM そして
0.77
SVM on Random
SVM オン ランダム
0.74
5.3.1 FedSVM vs.
5.3.1 FedSVM vs.
0.62
SVM first the of 9a.
SVM まずは 9aだ
0.76
The a error on which
あらすじ error (複数形 errors)
0.46
state sequence FedSVM and
状態シーケンス FedSVM と
0.79
indicattimed constructed We SVM, reusing prediction ing are fittheir Markov models based spectively, given are two Markov parameters ted.
Indicattimed constructed We SVM, reusing prediction ing is fittheir Markov model based spectively, given is two Markov parameters ted。
0.80
The each between value 9a and in Table difference avercalculated 9c.
値9aと表差のそれぞれは9cを集計した。
0.71
The is parameters pair of in Table parameters of pair age is each between value difference It means value 0.054.
ペア年齢のテーブルパラメータのパラメータペアは値差のそれぞれです。値0.054を意味します。
0.74
The maximum difference 0.096. is difference significant that no the between two Markov models, and the prediction on equally SVM are FedSVM and almost the estimated unknown Bosch data.
Therefore, performance subsequent Bosch production
そのため、以後のボッシュ生産
0.69
of FedSVM and SVM in was significantly
FedSVM と SVM が有意に増加しました。
0.64
between error distributed the the different.
エラーが分散する間 違うわ
0.58
models exists there
モデル 存在する そこ
0.71
not 5.3.2 FedRF
だめだ 5.3.2 FedRF
0.58
vs. RF We the based
vs. RF 私たちは
0.78
first prediction which constructed error their
最初の予測は エラーを組み立てました
0.65
timed sequence a using FedRF and RF, are
タイムド FedRF と RF を用いたシーケンス a は
0.74
Markov models indicating respectively, fitted.
マルコフ モデル それぞれが適合していることを示す。
0.53
The state
あらすじ state
0.60
on (d) MCC Values
オン (d)MCC値
0.72
of FedRF
ですから FedRF
0.69
and RF (e) AUC Values
RF (e) AUC値
0.65
of FedRF
ですから FedRF
0.69
and RF Fig. 9:
RF フィギュア。 9:
0.58
FedRF vs. RF
FedRF vs. RF
0.87
on Random Partial Data
ランダム部分データについて
0.66
英語(論文から抽出)
日本語訳
スコア
14 Ning Ge et al.
14 ニンゲ など アル
0.54
(a) ACC Difference (b) PRE Difference
(a)ACC差分 (b)事前差分
0.75
(c) F1 Difference (d) MCC Difference
(c) F1の違い (d)MCCの違い
0.80
Table 9: Experiment Results
テーブル 9:実験結果
0.81
of RQ3 on FedSVM/SVM
rq3の FedSVM/SVMについて
0.57
(a) Markov Model Parameters FedSVM
(a) Markov Model Parameters FedSVM
0.85
of Prediction Error using State
予測エラーの 利用 状態
0.73
Hit Miss Mistake Hit 0.882 0.715 0.813
ミスミスを犯す hit 0.882 0.715 0.813
0.51
Miss 0.113 0.280 0.062
0.113 0.280 0.062
0.40
Mistake 0.005 0.005 0.125
0.005 0.005 0.125
0.53
(b) Markov Model Parameters SVM
(b)マルコフモデルパラメータSVM
0.77
of Prediction Error using Hit Miss Mistake
予測エラーの 利用 ミスミスを犯す
0.66
Hit 0.851 0.690 0.717
hit 0.851 0.690 0.717
0.49
Miss 0.077 0.225 0.125
0.077 0.225 0.125
0.38
Mistake 0.072 0.085 0.158
0.072 0.085 0.158
0.51
(c) Comparison of Two Markov Model Parameters
(c) 比較 マルコフモデルパラメータの2つ
0.82
Hit Miss Mistake Hit 0.031 0.025 0.096
ミスミスを犯す 0.031 0.025 0.096
0.53
Miss 0.036 0.055 0.063
ミス0.036 0.055 0.063
0.39
Mistake 0.067 0.080 0.033
Mistake 0.067 0.080 0.033
0.53
(e) AUC Difference Table
(e) AUC差 テーブル
0.79
10: Experiment Results of RQ3
10:実験結果 rq3の
0.77
on FedRF/RF
オン FedRF/RF
0.62
Fig. 10: Difference of FedRF and RF on Random Partial Testing Data
フィギュア。 10: ランダム部分テストデータにおけるFedRFとRFの違い
0.67
(a) Markov Model Parameters FedRF
(a)マルコフモデルパラメータFedRF
0.72
of Prediction Error using and
予測エラーの 利用 そして
0.73
10a. The two Markov
10aだ あらすじ 2つのマルコフ
0.54
value calculated between parameters are models 10a between difference 10c.
計算した値 パラメータは10c間の10aモデルです
0.77
The in Table parameters is value ference each of pair parameters value The maximum difference 0.100. is difference significant there no prediction and Markov models, the dRF are equally distributed the unknown Bosch data.
in tableパラメータは、各ペアパラメータ値の最大差分0.100を参照する値であり、予測やマルコフモデルがない場合、drfは未知のボッシュデータに対して等しく分布する。
0.76
Therefore, dRF subsequent Bosch not
したがって、dRFはボッシュに続く。
0.54
Table in given of each pair difaverage is 0.035. that It means two the between between error Fethe on estimated of Feperformance production was
evaluate to used experiments the used in proposed method in
提案手法で用いられる使用済みの実験を評価する
0.89
is data the hundred experiment This testing of the RQ3.
百というデータです 実験 RQ3のこのテスト。
0.72
follow We experiment. One secutive the GT label to S0,
実験に追随する。 GTラベルをS0に切断します。
0.63
of and state samples were the the
と state サンプルは...
0.67
groups randomly sample, the unqualified
ランダムにサンプルするグループです
0.57
the heterogeneity RQ1of 4 to Sect.
はあ? ヘテロジニティRQ1が4つある。
0.42
conof time-ordered to selected.
conof 時間順に選択します。
0.56
According is sample qualified set state is sample set to
サンプルに適格なセット状態はサンプルに設定される。
0.78
Hit Miss Mistake Hit 0.869 0.701 1.000
ミスミスを犯す 0.869 0.701 1.000
0.49
Miss 0.130 0.299 0.000
ミス 0.130 0.299 0.000
0.40
Mistake 0.001 0.000 0.000
0.001 0.000 0.000
0.48
(b) Markov Model Parameters RF
(b)マルコフモデルパラメータRF
0.76
of Prediction Error using Hit Miss Mistake
予測エラーの 利用 ミスミスを犯す
0.66
Hit 0.888 0.735 0.900
0.888 0.735 0.900
0.45
Miss 0.109 0.263 0.100
0.109 0.263 0.100ミス
0.39
Mistake 0.003 0.002 0.000
0.003 0.002 0.000
0.53
(c) Comparison of Two Markov Model Parameters
(c) 比較 マルコフモデルパラメータの2つ
0.82
Hit Miss Mistake Hit 0.019 0.034 0.100
ミスミスを犯す 0.019 0.034 0.100
0.53
Miss 0.021 0.036 0.100
0.021 0.036 0.100
0.44
Mistake 0.002 0.002 0.000
0.002 0.002 0.000
0.53
英語(論文から抽出)
日本語訳
スコア
Failure Prediction in Production Line Based
故障予測 生産中 線ベース
0.69
on Federated
オン フェデレーション
0.57
Learning: An Empirical Study
学習: 経験的な 研究
0.68
15 sequence. For
15 シーケンス。 のために
0.64
a of steps forming group k=2
一連のステップ 形成群k=2
0.67
state S1, samples, each and are SCAN algorithm is 1-step 2-step results that
state S1, sample, each and are SCAN アルゴリズムは 1 ステップ 2 ステップの結果です。
0.82
and show multiple there of sequence state step k=1 the Markov model of DBThe established, respectively.
複数のものを見せて シーケンス状態ステップ k=1 の DB の Markov モデルがそれぞれ確立されています。
0.69
used and all analyze the clustering the parameter matrices.
パラメータ行列のクラスタリングを全て使用し、分析します。
0.71
If explain it clusters, can the testing data.
クラスタを説明する場合、テストデータは可能か?
0.73
heterogeneity within different cluster
不均一性 違う cluster
0.70
the to is 5.4.1 Heterogeneity FedSVM
はあ? へ は 5.4.1 異種fesvm
0.55
of the Testing Data
ですから はあ? データテスト
0.55
used in are in Table 11.
使用 で 11番テーブルにある。
0.74
There shown results experimental results, samples the sum of so the test in the 100. than that be It can seen the cluster is less difference 2 into clusters.
It the difference significant SVM have no manufacturing the data for problem
有意なSVMの差は問題のためのデータ製造を行なわない
0.86
The are outliers in each testing between which means FedSVM is that on of
FedSVMとFedSVMは、それぞれのテストにおいてアウトプライヤです。
0.61
FedSVM and heterogeneous failure
FedSVMと不均一障害
0.79
prediction. Table 11: Experiment Results
予測だ テーブル 11:実験結果
0.77
of RQ4 on FedSVM
RQ4 の オン FedSVM
0.79
Step Clusters Distance threshold
ステップ クラスタ 距離閾値
0.72
(◦) Contour factor Samples / cluster
(◦) 輪郭因子 サンプル/クラスタ
0.74
k = 1 k = 2
k = 1 k = 2
0.85
2 2 5 8 0.456 0.421
2 2 5 8 0.456 0.421
0.73
92 89 / / 6 6
92 89 / / 6 6
0.85
According of RQ4 the Section is
rq4によると セクションです。
0.60
to ment in the VFL scenario RQ1-RQ3 ufacturing obtain each
VFL シナリオ RQ1-RQ3 がそれぞれを得る
0.75
experiment results the data 4.1, strong relatively means This positive.
実験結果データ4.1、比較的強い平均この肯定的な。
0.66
are FL the and scenarios, results prediction of
FLはシナリオであり 結果の予測です
0.69
and heterogeneity answer and the our in VFL algorithms CL and can heterogeneity.
ヘテロジニティ応答と我々のVFLアルゴリズムはCLであり、ヘテロジニティが可能である。
0.62
data statein to mancan replace
データ マンを置き換える状態
0.67
similar other premise
同様のものです 前提
0.53
under thus
under ~ よって
0.69
the the 5.4.2 Heterogeneity
はあ? はあ? 5.4.2 異質性
0.36
of the Testing Data
ですから はあ? データテスト
0.55
used in FedRF
使用 で FedRF
0.76
shown is results testing between
示されるのは 結果のテストは
0.67
It 12. in Table can are experimental The clusinto divided 2 data that be seen the than is no less the clusters ters.
It 12. in Table can are experimental The clusinto split 2 data that are not not the than than the less the cluster ter。
0.77
The difference used data in the that distance threshold, which means It heterogeneous.
差は、その距離のしきい値のデータを使用しました。
0.70
is FedRF enforces of experiment the significant no that and FedRF have conclusion the heterogeneous manufacturing data the on difference failure problem of to ment in the HFL scenario RQ1-RQ3 ufacturing
and heterogeneity the and answer our HFL in CL algorithms
CLアルゴリズムにおけるHFLの異種性解析と解答
0.79
4.1, relatively This positive.
4.1 比較的陽性です
0.79
are the scenarios, FL
FLはシナリオです。
0.71
prediction. the Section is
予測だ セクションです。
0.61
statein to mancan
mancan (複数形 mancans)
0.36
According of RQ4 the
rq4によると はあ?
0.50
RF for Table
RF ですから テーブル
0.73
12: Experiment Results of RQ4
12:実験結果 RQ4 の
0.84
on FedRF Step
オン FedRF ステップ
0.75
Clusters Distance threshold (◦)
クラスタ 距離閾値 (◦)
0.75
Contour factor Samples / cluster
輪郭因子 サンプル/クラスタ
0.69
k = 1 k = 2
k = 1 k = 2
0.85
2 2 4 8 0.524 0.473
2 2 4 8 0.524 0.473
0.73
94 78 / / 6 22
94 78 / / 6 22
0.85
obtain each similar other
それぞれ取得する 同様のものです
0.63
under prediction
under ~ 予測
0.74
the premise results of
はあ? 前提 結果は
0.55
and data thus can heterogeneity.
データと よって 異質性があります
0.63
replace 6 Threats
取り替える 6つの脅威
0.63
to Validity the threats
正当性 はあ? threats
0.61
(2017), we studies Runeto
(2017年) ルーネト研究
0.36
reduce to for empirical discuss
縮小する 経験的な議論のために
0.51
Following common guidelines son the
共通ガイドラインに従えば
0.65
and threat implementation (2009); Yin and H¨ost our of validity study.
脅威の実施 (2009) yin と h は有効性の研究を行う。
0.65
Threats to internal uncontrolled with results the the main in reimplementation erated SVM and To reduce niques by following and our their to small possibility result’s
concerned may impact In this work, defects the and the fedalgorithms).
この作品では、欠陥とフェデゴリズムに影響を及ぼす可能性がある)。
0.63
the baseline techreimplement carefully review all their papers.
ベースラインのtechreimplementは、すべての論文を慎重にレビューする。
0.58
We developers several experiment by there is always a correctness.
私たちは、常に正しい実験をいくつか行います。
0.65
However, the to risk of defects, which introduces
しかし、欠陥のリスクが伴う。
0.49
is potential algorithm (mainly
潜在アルゴリズムです(主に)
0.82
code ensure correctness. threat, we
コード保証 正しさ 脅威、我々は
0.66
scripts this our work, we
脚本 これ 私たちの仕事は
0.77
are mainly our of settings.
主に私達の設定です。
0.75
is techniques this In impact the we mentioned in the
は テクニック この例で述べたような影響の中で
0.72
In features. For to the client.
特徴がある。 クライアントのために。
0.72
the external validity is to concerned validity external Threats to can performance the whether with work, experimental other in hold still of validity main to threat external the Sect.
As preprocessing method. data preprocessdata revealed existing works that 1, the impact on the significant ing a on the Bosch dataset has applied PCA to have prediction result.
in the VFL sceexample, find the principle 22 only features nario, according PCA analysis, represent features these in kept are But, each threat variance more than 95% of of experimental methodology we the to the FL algorithm order In designed.
vfl sceexample において、原理22は nario のみを特徴としており、pca分析によれば、これらの特徴は保持されているが、それぞれの脅威分散は、設計中の fl アルゴリズムの順序に対する実験手法の95%以上である。 訳抜け防止モード: vfl sceexample では、原則 22 は nario のみを特徴としている。 pcaの分析によれば これらの特徴は それぞれの脅威分散は、実験手法の95%以上で設計されているflアルゴリズムの順序に当てはまる。
0.76
answer whether experconduct the CL algorithm or not, we can replace random the data, on testing the whole on iment partial data, unknown estimated the testing on data, and reis spectively.
Huang Liu et Kotenko al. et (2016); Huang Liu et Kotenko al。
0.74
al. (2019); et (2020d); and Kumar (2016); Maurya (2016); Moldovan quality al.
アル (2019); et (2020d); and Kumar (2016); Maurya (2016); Moldovanの質al。
0.54
et (2019); Zhang (2016) of which learning model, con-
et(2019)、zhang(2016)、学習モデルcon-
0.60
to measure reduces the
測定すると減少します
0.67
the risk (2018,
リスクは (2018,
0.74
al. et diction Hebert ler Mangal al.
アル など 原題はHebert ler Mangal al。
0.58
et of the struction
struction (複数形 structions)
0.50
the two is experiment.
はあ? 二 実験です
0.52
according to a hypothesis validity construct the in used value is set performed the difference original
ある仮説によれば 有効性構成 使用中の値が差原値となるように設定される
0.69
validity. to threat Another or δ = 0.1 δ δ = 0.2) ( old threshold the the industry, have production needs.
妥当性。 δ = 0.1 δ δ = 0.2(産業の古いしきい値、生産ニーズ)を脅かす。 訳抜け防止モード: 妥当性。 to threat another or δ = 0.1 δ δ = 0.2 (産業の古いしきい値)。 生産需要があります
0.72
We difference for between the that explain to mances the threshold.
私たちは、その説明としきい値の操作の違いを区別します。
0.63
The CL is within the alternative the is difference > δ, and difference = CL the difference < δ, where testing random partial same group.
CL は is > δ であり、差 = CL は δ であり、ランダムな部分的同群をテストする。 訳抜け防止モード: CL は、 is の差 > δ の代替となる。 and difference = CL the difference < δ, where testing random partial same group 。
0.82
evaluation metrics the 0.05.
評価指標 0.05。
0.83
The p-value of vs. FedForest vs. SVM and 13 14, and Table respectively.
対FedForest対SVM、13、14のp-valueはそれぞれTableである。
0.70
alternative the all metrics, that which means the less the threshold
すべての指標を置き換えます。つまり、しきい値が少ないほど
0.71
threshIn the test perforapproaches’ between and FL hypothesis H0 hypothesis H1 is – on FL the Suppose α = for FedSVM Table is p-value for alpha > accepted, is H1 between CL and FL is or δ = 0.2).
threshin the test perforapproaches 7; between fl hypothesis h0 hypothesis h1 is – fl 上の仮定 α = for fedsvm table is p-value for alpha > accepted, is h1 between cl and fl is or δ = 0.2)。
failure investigation in the to predict have adopted two FL algorithms of exour According production to performed isting SVM and RF results problem, this that did not better on Bosch data among CL algorithms Federatedwe consider choose Therefore, time that expect study.
As our study to industry, we from the manufacturing a literature investigation to answer existing to et studies Duan effect FL’s et is mainly (2019), and distribution amount.
産業研究として,本研究における文献調査からDuan effect FL’s et への回答までは主に (2019) と流通量である。
0.69
Two summarized as
を2つまとめました。
0.40
the what Otherwise, what FL in dataset ducted tion.
そうでなければ、データセットの FL は tion をダクトします。
0.63
According Kairouz al.
Kairouz al によると。
0.74
data the facts are achieve If yes, size)?
事実のデータは 達成する はい、サイズ)?
0.74
use can the Bosch conhave this ques(2019); al.
use can the Bosch conhave this ques(2019); al。
0.76
related to important data follows.
重要なことや データは続く
0.69
question or the is and
質問 あるいは は そして
0.68
1. When disidentically independent the data simof FL and CL are results learning tributed, the al.
1. いつ disidentically independent the data simof FL and CL is result learning tributed, the al.
0.80
Lu Chen (2020); et work ilar.
Lu Chen (2020), et work ilar. (英語)
0.90
For instance, the Sozinov et (2019); al.
例えば、Sozinov et (2019) などである。
0.64
al. Olivia (2019); et et al.
アル Olivia (2019): et et al。
0.54
is data indethe that when showed (2018) training the (IID), difdistributed identically pendent and within FL 3%.
If between ference and CL the is effect FL’s is client on of amount small, each data the expands than CL better is because FL number (2019); Guha samples Bakopoulou et of IID data al.
referencee と cl の間で is effect fl’s がクライアントである場合、cl よりも良く展開されるデータは fl number (2019); guha が iid data al の bakopoulou らをサンプリングしているためである。
0.77
(2019); Shaoqi et al (2019); Ickin et al et al (2020); (2019).
(2019)、Shaoqi et al (2019)、Ickin et al et al (2020)、(2019)。
0.72
et Suzumura al. al.
すずむらアル。 アル
0.31
distributed, FL unevenly training the 2.
FLは2を不均等に訓練する。
0.75
When is Boughorsame may not achieve as effect CL et et bel al.
Boughorsameが効果CL et et bel alとして達成できないとき。
0.74
(2019a); Chen al.
(2019a) チェン・アル。
0.71
et (2020); Dianbo al.
と(2020):Dianbo al。
0.68
Luca (2018); Hu (2020); et (2018); al.
luca (2018)、hu (2020)、et (2018)、al。
0.76
et al. Feng Sozinov and M (2019); (2018a); Sheller et al.
など。 Feng Sozinov and M (2019); (2018a); Sheller et al。
0.58
et al. (2019) claimed (2018).
など。 (2019年) 主張(2018年)。
0.47
The review article Kairouz et al that client is small, data CL model may be better on multi-clients using data tribution of training data.
a the shown that have works some Besides, algorithms encryption Feng to related also FL is al.
あ... また、Feng と関連するアルゴリズムの暗号化も FL は al です。
0.37
et Lu 2020b); (2019, Li (2020); et al.
et Lu 2020b); (2019, Li (2020); et al。
0.79
(2020). (2019); Tao et al.
(2020). (2019年) Tao et al。
0.77
al. (2019); R et et al.
アル (2019年): R et et al。
0.51
information the increases, strength cryption of the effect FL that worse.
情報の増加、より悪い効果FLの強さの暗号化。
0.70
will data So be privacy protection data between trade-off The still is accuracy of the trained model an considered still of question open FL is related to other
for arXiv:1910.12191, Theodora Olshevsky, erated electronic 112:59–67, medical Caoimhe M Carbery, Roger Woods, shall.
arXiv:1910.12191, Theodora Olshevsky, erated electronic 112:59–67, medical Caoimhe M Carbery, Roger Woods。
0.91
based for modelling 2018 IEEE technology Caoimhe M Carbery, Roger Woods, analytics shall.
2018 IEEE技術Caoimhe M Carbery、Roger Woods、分析のモデリングに基づいています。
0.81
new preprocessing data plex manufacturing stitution of Mechanical Engineering 6726, Dawei Chen, Linda Li-Chun Wang, Choong Federated based mobile edge augmented reality applications.
新しい前処理データ plex manufacturing stitution of mechanical engineering 6726, dawei chen, linda li-chun wang, choong federated based mobile edge augmented reality applications
0.77
In 2020 on Computing, Networking Conference pages (ICNC), nications IEEE, Timothy, Miller Liu Dianbo, Mandl Kenneth D. Fadl: deep learning preprint arXiv Moming Duan, Duo Liu, Xianzhang Chen, Yujuan Tan, Astraea: Jinting Ren, Self-balancing clasapplicaaccuracy sification on 37th tions.
2020 on Computing, Networking Conference Page (ICNC), nications IEEE, Timothy, Miller Liu Dianbo, Mandl Kenneth D. Fadl: Deep Learning preprint arXiv Moming Duan, Duo Liu, Xianzhang Chen, Yujuan Tan, Astraea: Jinting Ren, Self-balancing clasapplicaaccuracy sification on 37th tions。
0.86
In United Computer Design, Arab 246– 254.
統一コンピュータ設計では、アラブ246-254。
0.68
Martin Ester, Hans-Peter Kriegel, J¨org Sander, Xiaowei discovering al.
Martin Ester, Hans-Peter Kriegel, J sorg Sander, Xiaowei discovereding al。
0.91
Xu, A density-based et in large clusters In Kdd, pages 96, volume
Xu, A density-based et in large clusters in Kdd, pages 96, volume
0.95
Jiang Xie, BaekGyu Kim, Li Wang, Han.
Jiang Xie、BaekGyu Kim、Li Wang、Han。
0.77
and Zhu computing for International and Commu2020.
そしてZhu Computing for International and Commu2020。
0.74
Raheel, and Liang.
Raheel そして、Liang。
0.62
Liang for learning improving learning mobile deep Conference International Dhabi, Abu 2019, pages
liang for learning learning mobile deep conference international dhabi, abu 2019, pages
0.67
Sayeed and Federated-autonomous for distributed electronic health record.
sayeed and federated-autonomous for distributed electronic health record(英語)
0.65
arXiv:1811.11400,
arXiv:1811.11400,
0.50
and Adele H Maremphasising into insights comProceedings the of InPart Journal C: 233(19-20):6713–
Adele H Maremphasising into insights comProceedings the In Part Journal C: 233(19-20):6713–
0.93
spatial databases with noise.
雑音を伴う空間データベース。
0.83
226–231, Emirates, 2019.
226–231, エミレーツ、2019年。
0.60
IEEE, Seon Hong, learning
IEEE ソン・ホン 学び
0.55
Engineers, Science, Lei Qiao, federated
エンジニア、科学、 Lei Qiao (複数形 Lei Qiaos)
0.59
ICCD November to systems.
ICCD 11月 システムに
0.64
2019, 17-20,
2019, 17-20,
0.84
on IEEE, algorithm for
IEEEで、 アルゴリズムは
0.73
of IEEE Mechanical
IEEEとは? 機械
0.61
framework data of 767–773.
枠組み データです 767–773.
0.70
generate 1996. 2019.
生成 1996. 2019.
0.83
2018. of
2018. ですから
0.69
英語(論文から抽出)
日本語訳
スコア
18 Ning Ge et al.
18 ニンゲ など アル
0.54
for data Sean
ですから データ ショーン
0.63
arXiv urban preprint
arXiv 都市 プレプリント
0.71
learning federated
学習 federated~
0.73
Fran¸coise Beaufays,
フラン・シュコイズ Beaufays
0.43
Christian. ieee pages
クリスチャン。 ieee page
0.73
via 2020. and Wachinger
2020年までに そしてワッチンガー
0.65
environment preprint and molearning.
環境プレプリント 学習も
0.57
Liu, edge environment
Liu、エッジ環境。
0.78
Sun, Diansheng Guo, human
Sun、Diansheng Guo、人間。
0.88
Conference, Arab IEEE,
アラブ首長国連邦 IEEE
0.53
clasdata international 2024–2028.
clasdata International 2024–2028
0.88
Liang region-learning: An for
liang region-learning: an for
0.82
and Huadong Ma.
そしてHuadong Ma。
0.63
based computing sensing.
ベース・コンピューティング・センシング
0.60
In IEEE GLOBECOM December
IEEE GLOBECOM 12月
0.72
Funing A privacy-preserving framework 4(1):10:1–10:21,
Funing A Privacy-preserving framework 4(1):10:1–10:21
0.65
Feng, Can Rong, Jie Li.
Feng、Can Rong、Jie Li。
0.75
Yong PMF: bility prediction IMWUT, Roy Abhijit Guha, Siddiqui Shayan, P¨olsterl Sebastian, BraintorNassir, Navab for rent: A peer-to-peer decentralized federated learning.
Yong PMF: 能力予測 IMWUT, Roy Abhijit Guha, Siddiqui Shayan, P solsterl Sebastian, BraintorNassir, Navab for rent: A peer-to-peer decentralized Federationed learning。
0.90
arXiv:1905.06731, 2019.
arXiv:1905.06731, 2019。
0.64
Andrew Hard, Kanishka Rao, Rajiv Mathews, Swaroop Ramaswamy, Augenstein, and Daniel Ramage.
Andrew Hard, Kanishka Rao, Rajiv Mathews, Swaroop Ramaswamy, Augenstein, Daniel Ramage
mobile 2018. arXiv arXiv:1811.03604, Predicting Jeff using Hebert.
mobile 2018 arXiv arXiv:1811.03604, Hebertを使用したJeff予測。
0.66
events failure rare trees manufacturing sification scale on large In interactions.
イベント失敗 珍しい木製造のsificationスケール 大規模なInの相互作用。
0.74
complex with 2016 conference on data), (big big 2016.
complex with 2016 conference on data” (big big 2016) を参照。
0.86
IEEE, Binxuan Hu, Yujia Gao, Federated framework Communications Global Abu United Dhabi, 2018, 1–7.
IEEE, Binxuan Hu, Yujia Gao, Federated framework Communications Global Abu United Dhabi, 2018, 1-7。
0.86
pages 2018, 9-13, Shea, Huining Qian, Aditya MaLi Huang, Andrew L clustersurkar, Hao Deng, and Dianbo ing learntime ing using Journal of Xin Huang, Cecilia Zanni-Merk, and Bruno Cr´emilleux.
Page 2018 9-13, Shea, Huining Qian, Aditya MaLi Huang, Andrew L clustersurkar, Hao Deng, Dianbo ing learntime ing using Journal of Xin Huang, Cecilia Zanni-Merk, Bruno Cr ́emilleux。
0.84
applicaEnhancing tion Procedia Computer Selim Ickin, Fiedler.
applicaEnhancing tion Procedia Computer Selim Ickin, Fiedler。
0.78
laborative E. Fabian tors, Proceedings on QoE-based Communication Cabos, 2019, 13–18.
E. Fabian tors, Proceedings on QoE-based Communication Cabos, 2019, 13–18。
0.83
ACM, 2019.
2019年、ACM。
0.87
Peter Kairouz, H Brendan McMahan, Brendan Avent, Aur´elien Bellet, Mehdi Bennis, Arjun Nitin Bhagoji, Zachary CorKeith Cummings, mode, and federated open preprint in 2019. arXiv:1912.04977, and Sibusiso Khoza ing machine learning for
Peter Kairouz, H Brendan McMahan, Brendan Avent, Aur ́elien Bellet, Mehdi Bennis, Arjun Nitin Bhagoji, Zachary CorKeith Cummings, Mode, and Federationated Open Preprint in 2019. arXiv:1912.04977, Sibusiso Khoza ing Machine Learning for
0.96
Markus colusing Privacy In Pedro Casas, Florian Wamser, learning.
Markus Collusing Privacy In Pedro Casas, Florian Wamser, Learning (英語)
0.88
ediand David Bustamante, Internet-QoE Workshop 4th of the and Analysis Data Management Internet-QoE@MobiCom Networks, Mexico, October pages
ediand David Bustamante, Internet-QoE Workshop 4th of the and Analysis Data Management Internet-QoE@MobiCom Networks, Mexico, October page
0.96
semantics: an analysis. series 2019b.
意味論:分析。 2019年シリーズ。
0.72
159:437–446, Vandikas, and qoe modeling
159:437–446, Vandikas, and qoe model
0.76
Liu. efficiency of federated and mortality hospital medical electronic Informatics, 99:103291,
Liu 連邦および死亡病院の医療電子インフォマティクスの効率、99:103291。
0.63
Comparprocess control EPIA In performance.
比較処理制御EPIA 性能。
0.70
Patient machine stay records.
患者マシンは記録を保てる
0.81
2019a. Science, Konstantinos preserving
2019年。 科学、コンスタンティノス保存
0.69
improves to predict distributed Biomedical
分散バイオメディカルの予測の改善
0.74
Bonawitz, Rachel problems
Bonawitz, Rachel 問題
0.82
Graham Advances arXiv
GrahamがarXivを前進
0.53
Charles, et al.
Charles, et al.
0.85
learning. learning with time
学ぶこと。 時間とともに学ぶ
0.67
Emirates, 2018.
エミレーツ、2018年。
0.46
predicting manufacturing Jacomine and
製造予測 ジャコミンと
0.69
to manufacturing statistical Choffnes,
製造に携わる 統計 Choffnes
0.66
Grobler. 2019,
Grobler 2019,
0.67
deep Los 21, R.
深く ロス 21, R。
0.74
of C of a
ですから C というと
0.67
data. 2017.
データだ 2017.
0.78
pages 2020a. Nature,
ページ 2020a 自然だ
0.69
embrace 108–119.
抱きしめる 108–119.
0.67
Cardoso, Ourselin,
Cardoso Ourselin
0.47
S´ebastien
略称は「ebastien」。
0.19
Federated directions.
フェデレーション 方向だ
0.54
Intelligence, must 2017.
知性。 2017年。
0.53
artificial review. learning: IEEE
人工的なレビュー 学習:IEEE
0.60
Sahu, Ameet Talwalkar,
Sahu, Ameet Talwalkar,
0.85
future 37(3):50–60,
future 37(3):50–60
0.89
and machine Proceedings, Kusiak.
そして、Kusiak, Machine Proceedings。
0.81
and VirChallenges, methProcessing Signal
そして virchallenges、メセプロセッシング信号、
0.66
learning 11:380–385, 2019.
11:380–385, 2019。
0.62
Smart manufacturing 544(7648):23–25,
スマート製造 544(7648):23-25
0.84
Branitskiy. techbig a framework.
ブランチスキー techbig - フレームワーク。
0.57
Materials To- on Artificial 2019.
材料to- 2019年製作。
0.68
Igor Saenko, Alexander and the of performance manufacturing using processing advanced material
イゴール・サエンコとアレクサンダーと先端材料加工による性能製造
0.64
Conference Springer, Igor Kotenko, Improving nologies for data day: Andrew big Bo-hu Li, Bao-cun Hou, Wen-tao Yu, Xiao-bing Lu, and intelligence Chun-wei Yang.
Conference Springer, Igor Kotenko, Improving nologies for data day: Andrew big Bo-hu Li, Bao-cun Hou, Wen-tao Yu, Xiao-bing Lu, and Intelligence Chun-wei Yang。
0.86
Applications in intelligent manufacturing: Frontiers of Information Technology & Electronic Engineering, 18 (1):86–96, Tian Li, Anit Kumar Smith.
理性的な製造業の適用:情報技術及び電子工学のフロンティア、18 (1):86-96、Tian Li、Anit Kumar Smith。 訳抜け防止モード: インテリジェント製造における応用 : 情報技術・電子工学のフロンティア 18 (1):86-96 , Tian Li , Anit Kumar Smith 。
0.83
ginia ods, and Magazine, Wenqi Li, Fausto Milletar`ı, Daguang Xu, Nicola Rieke, Jonny Hancox, Wentao Zhu, Maximilian Baust, Yan Jorge Cheng, and M. federated brain tuAndrew Feng.
ginia ods, and Magazine, Wenqi Li, Fausto Milletar`ı, Daguang Xu, Nicola Rieke, Jonny Hancox, Wentao Zhu, Maximilian Baust, Yan Jorge Cheng, M.Federated Brain tuAndrew Feng。
0.80
Privacy-preserving segmentation.
プライバシー保護セグメンテーション。
0.62
Suk, Mingxia mour Liu, Heung-Il In and Yan, Pingkun editors, Machine Lian, Chunfeng International 10th in Learning MedicalImaging with Conjunction Workshop, MLMI 2019, Held in 13, MICCAI 2019, October 2019, Shenzhen, China, Lecture Notes Proceedings, in Com11861 of 2019.
Suk, Mingxia mour Liu, Heung-Il In and Yan, Pingkun Editors, Machine Lian, Chunfeng International 10th in Learning MedicalImaging with Conjunction Workshop, MLMI 2019, Held in 13, MICCAI 2019, October 2019, Shenzhen, China, Lecture Notes Proceedings, in Com11861 of 2019。
0.91
Springer, 133–141.
スプリンガー 133–141。
0.62
Science, puter P. Mohanty.
科学、パターP.Mohanty。
0.74
and Sharma, Zengpeng Li, Saraju learning: Chalfederated via Preserving lenges and IEEE Consumer Electronics 2020b.
2020a. Transactions ated on Big Data, Niyato, Dusit Yi and Kang, Jiawen Liu, flow predicShuyu Privacy-preserving traffic learning tion: A federated Internet 2020b.
2020a Big Data, Niyato, Dusit Yi and Kang, Jiawen Liu, flow predicShuyu Privacy-preserving traffic learning tion: A Federalerated Internet 2020b. 上のトランザクション。
0.83
of Journal, Things Ge, Zhang, Yi Ning Li Liu, review literature systematic quality From perspective.
Journal, Things Ge, Zhang, Yi Ning Li Liu は、文献の体系的品質をレビューする。
0.78
arXiv:2012.01973, 2020c.
arXiv:2012.01973, 2020c
0.63
Zhenyu Liu, Donghao Zhang, Weiqiang Jia, Xianke Lin, serial– and Hui framework parallel quality Intelligent Manufacturing, of pages 2020d.
Zhenyu Liu, Donghao Zhang, Weiqiang Jia, Xianke Lin, serial– and Hui framework parallel quality Intelligent Manufacturing, of pages 2020d
0.84
Sidi Lu, Yongtao Yao, learning hicles.
Sidi Lu, Yongtao Yao, learn hicles。
0.78
man, Collaborative on connected veIn Irfan Ahmad and Swaminathan SundararaTopeditors,
harjan, Differentially learning for mobile chronous urban informatics.
ハージャン 移動時間帯の都市情報学を 学んでる
0.57
IEEE ing in Trans.
IEEE ing in Trans。
0.80
16(3):2134–2143, matics, 2020.
16(3):2134-2143, matics, 2020。
0.84
Luca Buhmann Corinzia tional federated multi-task arXiv:1906.06268, and Nishant Kumar.
Luca Buhmann Corinzia tional federated multi-task arXiv:1906.06268, and Nishant Kumar
0.82
Ankita Mangal enhance the bosch line production International IEEE 2016 In challenge.
ankita mangalはbosch line production international ieee 2016 in challengeを強化した。
0.79
kaggle on ference Big Data (Big Data), pages IEEE, 2016. optimization for predictAbhinav Maurya.
abhinav Maurya.kaggle on ference Big Data (Big Data), page IEEE, 2016 optimization for predictAbhinav Maurya。
0.84
processes. internal ing in manufacturing In IEEE International Conference on Big Data (Big Data), Brendan McMahan, al.
プロセス。 製造における内部ing In IEEE International Conference on Big Data (Big Data), Brendan McMahan, al.
0.80
Seth Hampson, ing of networks preprint Dorin Moldovan, Salomie.
Seth Hampson, ing of network preprint Dorin Moldovan, Salomie。
0.80
Time for manufacturing In ogy 10.
製造業のための時間ogy 10。
0.81
Douglas C Montgomery.
ダグラス・c・モンゴメリー
0.59
ity Nishat Chae. of Access, Thien Duc Samuel Marchal, Markus Miettinen, Hossein Fereidooni, N Asokan, and Ahmad-Reza anomaly D¨ıot: A federated Sadeghi.
ニシャット・チェ。 of Access, Thien Duc Samuel Marchal, Markus Miettinen, Hossein Fereidooni, N Asokan, Ahmad-Reza anomaly D sıot: A Federationerated Sadeghi。
0.60
deiot. 39th Internatection system for In on Distributed Computing tional Conference Systems 756–767.
デリオット 39th Internatection System for In on Distributed Computing tional Conference Systems 756–767
Distributed federated learning for ultra-reliable communications.
超信頼性通信のための分散連合学習
0.68
IEEE Yuris Nguyen, and prediction with networks.
IEEE Yuris Nguyen、およびネットワークによる予測。
0.83
arXiv Chen Shaoqi, Xue Dongyu, Chuai Guohui, Yang Qiang, based and qsar Liu Qi.
arXiv Chen Shaoqi, Xue Dongyu, Chuai Guohui, Yang Qiang, based and qsar Liu Qi
0.76
Fl-qsar: prototype bioRxiv, collaborative for 2020.
fl-qsar:2020年のbiorxivのプロトタイプ。
0.68
Micah J. Sheller, wards, Jason institutional patient data: A feasibility mentation.
Micah J. Sheller, wards, Jason Instituteal patient data: 実現可能性メント。
0.87
In Alessandro Hugo J. Kuijf, Farahani and Theo van Walsum, Multiple Sclerosis, International Workshop, juries4th with MICCAI Held in Conjunction 2018, Revised 16, September Spain, of 11383 volume Part Lecture I, 92–104.
Alessandro Hugo J. Kuijf, Farahani and Theo van Walsum, multiple Sclerosis, International Workshop, juries4th with MICCAI Held in Conjunction 2018, Revised 16, September Spain, of 11383 volume Part Lecture I, 92–104。
0.89
pages Springer, Science, Micah J Sheller, G wards, Jason institutional ing patient segmentation.
Springer, Science, Micah J Sheller, G wards, Jason Instituteal ing patient segmentation.com(英語)
0.83
Workshop, Sarunas Konstantin using recognition Girdzijauskas.
ワークショップ, Sarunas Konstantin using recognition Girdzijauskas.
0.82
Laurence T. and federated Conference on Yang, Parallel Applications, Ubiquitous Computing & Communications, Big Data & Networking, Communications, ISPA/IUCC/BDCloud/So cialCom/SustainCom Australia, Melbourne, 2018, 11-13, IEEE, 2018.
Laurence T. and Federal Conference on Yang, Parallel Applications, Ubiquitous Computing & Communications, Big Data & Networking, Communications, ISPA/IUCC/BDCloud/So cialCom/SustainCom Australia, Melbourne, 2018 11-13, IEEE, 2018
0.92
1103–1111.
1103–1111.
0.71
pages Dawn Raluca Song, Ion Stoica, Michael W Mahoney, Patterson, Jordan, D thony Joseph, Michael Joseph stein, et E for systems of view
Page Dawn Raluca Song, Ion Stoica, Michael W Mahoney, Patterson, Jordan, D thony Joseph, Michael Joseph stein, et E for systems of view
0.84
EdMultishartumor International MICCAI Brainlesion 92–104.
EdMultishartumor International MICCAI Brainlesion 92–104。
0.86
Vladimir Notes 2018a.
ウラジーミル 2018年。
0.38
Brandon Reina, Bakas.
Brandon Reina、Bakas。
0.77
Spyridon without modeling on study brain
学習脳のモデリングを伴わないスパイリドン
0.65
David Ada Randy AnJoseph M Helleral.
David Ada Randy AnJoseph M Helleral。
0.82
berkeley preprint ai.
バークレーのaiプレプリント。
0.48
activity Jinjun Chen International Processing with
et collaborative financial arXiv:1909.12946, Qinglin Ang
et collaboration financial arXiv:1909.12946, Qinglin Ang
0.78
arXiv:1712.05855, Toyotaro Barcardo, Suzumura, Guangnan Ye, Keith Houck, Ryo Kawahara, Ali Anwar, Klyashtorny, Daniel learnfederated Heiko graph crimes detection.
arXiv:1712.05855, Toyotaro Barcardo, Suzumura, Guangnan Ye, Keith Houck, Ryo Kawahara, Ali Anwar, Klyashtorny, Daniel learnfederated Heiko graph crimes detection。
0.94
ing for arXiv 2019. preprint Fei Tao, Liu, and Data-driven smart manufacturing.
ing for arxiv 2019. fei tao, liu, そしてデータ駆動スマートマニュファクチャリング。
0.47
Systems, ufacturing Fangzhao, Wu Tao, Wu Qi and Xie Xing.
Fangzhao、ウーTao、ウーQiおよびXie Xingを使用するシステム。
0.68
Fedrec: ommendation with federated learning.
fedrec: 連合学習によるommendation。
0.75
arXiv:2003.09592, Liang Xinle, Liu and Yang Qiang.
arXiv:2003.09592, Liang Xinle, Liu and Yang Qiang
0.87
learning for arXiv:1910.06001, Qiang Yang Tong.
arXiv:1910.06001, Qiang Yang Tongの学習
0.78
plications. ACM Transactions 10(2):1–19, and Zhang, Kejiang Yuhang Wensi Ffd: A federated Xu.
切り裂き。 ACM Transactions 10(2):1–19, and Zhang, Kejiang Yuhang Wensi Ffd: A Federalerated Xu。
0.61
Cheng-Zhong fraud card credit method for Conference on Big ternational 2019b.