論文の概要、ライセンス

# (参考訳) フェデレーション学習に基づく生産ラインの故障予測:実証的研究 [全文訳有]

Failure Prediction in Production Line Based on Federated Learning: An Empirical Study ( http://arxiv.org/abs/2101.11715v1 )

ライセンス: CC0 1.0
Ning Ge, Guanghao Li, Li Zhang, Yi Liu Yi Liu(参考訳) 組織間のデータ保護は、集中型学習(cl)技術の適用を制限する。 フェデレーション学習(fl)は、複数の参加者がデータを共有することなく学習モデルを構築することを可能にする。 それでも、知的製造におけるFLに関する研究はごくわずかである。 本稿では,FLに基づく生産ラインの故障予測に関する実証研究の結果について述べる。 本論文では,(1)FedSVM(Federated Support Vector Machine)およびFedRF(Federated Random Forest)アルゴリズムを水平FLと垂直FLのシナリオに対してそれぞれ設計し,(2)FLとCLのアルゴリズムの有効性を評価する実験プロセスを提案する。 テストデータが不均一であるという事実は、私たちの発見を高めます。 本研究では FL が CL を故障予測に置き換えることができることを明らかにした。

Data protection across organizations is limiting the application of centralized learning (CL) techniques. Federated learning (FL) enables multiple participants to build a learning model without sharing data. Nevertheless, there are very few research works on FL in intelligent manufacturing. This paper presents the results of an empirical study on failure prediction in the production line based on FL. This paper (1) designs Federated Support Vector Machine (FedSVM) and Federated Random Forest (FedRF) algorithms for the horizontal FL and vertical FL scenarios, respectively; (2) proposes an experiment process for evaluating the effectiveness between the FL and CL algorithms; (3) finds that the performance of FL and CL are not significantly different on the global testing data, on the random partial testing data, and on the estimated unknown Bosch data, respectively. The fact that the testing data is heterogeneous enhances our findings. Our study reveals that FL can replace CL for failure prediction.
公開日: Mon, 25 Jan 2021 10:27:19 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
Noname manuscript No. (will 無名の写本No。 (意志) 0.74
inserted the by be 挿入 はあ? で な 0.56
editor) Failure Prediction Study Empirical Learning: An · · Liu Yi Zhang Li Li Guanghao Ning Ge 編集者) 失敗予測学習実証学習: · · · Liu Yi Zhang Li Li Guanghao Ning Ge 0.76
in Production · Line Based 生産中 · 線ベース 0.77
on Federated オン フェデレーション 0.57
Received: date / Accepted: 受賞。 日付 / 受理。 0.51
date of of 日付 ですから ですから 0.60
to sharing protection a there へ 共有 保護 あっちだ 0.65
across centralized empirical based line 中央集権化 経験に基づく線 0.65
Data application データアプリケーション 0.81
learning model without is isのない学習モデル 0.89
Abstract iting the niques. Federated learning (FL) ipants build Nevertheless, very paper intelligent manufacturing. ニケを抽象化する。 それでもfederated learning (fl) ipantsは、非常に紙のインテリジェントな製造で構築されている。 0.50
failure sults study an production This on Federated Support Vector Machine erated Random Forest izontal vertical FL and for an experiment process proposes evaluating tiveness algorithms; CL between and that global testing data, different estimated on testing tial the and that the fact respectively. This on Federated Support Vector Machine erated Random Forest izontal vertical FL and for a experiment process proposes tiveness algorithm; CL between and that global testing data, different estimated on testing the and that fact。
訳抜け防止モード: フェデレート・サポート・ベクター・マシンによるランダム・フォレスト・イゾンタル・垂直flの生産に関する研究 実験プロセスでは 主観性アルゴリズム ; cl 間の関係を評価することを提案する。 そして、tial theのテストで推定されるグローバルなテストデータと、その事実がそれぞれ違うのです。
0.67
The data, findings. our enhances erogeneous for that can replace CL failure データ、調査結果。 CL の故障を置き換えることができます。 0.65
is organizations limtech(CL) learning enables multiple particdata. is organizations limtech(cl) learningは複数のparticdataを可能にする。 0.74
on FL in few research works the represents This in the on prediction designs (1) paper FL. on FL in few research work the represent This in the on predict design (1) paper FL。 0.75
(FedSVM) and Fedhor(2) effecfinds significantly random parunknown Bosch is hetreveals (FedSVM)とFedhor(2) effecfinds significant random parunknown Bosch is hetreveals 0.82
the performance of FL and CL are not on the FL と CL のパフォーマンスはありません。 0.72
the respectively; the (3) testing data Our study prediction. それぞれ; (3) テストデータ 我々の研究予測。 0.68
(FedRF) FL on the data, (FedRF)FL データについて 0.65
algorithms scenarios, アルゴリズム シナリオや 0.71
the FL FL for はあ? FL FL ですから 0.65
Safety-Critical of Software and Astronautics), Ministry 安全批判 Software and Astronautics (複数形 Software and Astronauticss) 0.59
Information Technology. the Key Laboratory of Aeronautics 情報技術。 The Key Laboratory of Aeronautics (英語) 0.71
Ning Ge of School Software, Beihang University, Beijing, China gening@buaa.edu.cn E-mail: She was also with (Nanjing University of Industry and Guanghao Li School of Software, Beihang University, Beijing, China E-mail: liguanghao@buaa.edu. cn Zhang Li School Computer of versity, Beijing, China E-mail: Zhang Li Yi Liu School Computer versity, Beijing, China E-mail: Ning Ge of School Software, Beihang University, Beijing, China gening@buaa.edu.cn E-mail: She was also with (Nanjing University of Industry and Guanghao Li School of Software, Beihang University, Beijing, China E-mail: liguanghao@buaa.edu. cn Zhang Li School Computer of versity, Beijing, China E-mail: Zhang Li Yi Liu School versity, Beijing, China E-mail: 0.97
lily@buaa.edu.cn is lily@buaa.edu.cn is 0.65
zy1906505@buaa.edu.c n zy1906505@buaa.edu.c n 0.52
Engineering, Engineering, corresponding 工学。 工学。 対応 0.59
Science Science author. and 科学 科学 著者。 そして 0.70
and the of そして はあ? ですから 0.53
Beihang Uni- Uni- Beihang 備漢 ユニ ユニ 備漢 0.46
Keywords Failure Bosch キーワード失敗ボッシュ 0.71
prediction dataset Empirical · 予測データセット 経験・・ 0.51
· study Production Federated line 【生産研究】 フェデレーションライン 0.69
· learning · Manufacturing · 1 ・学習・製造 · 1 0.79
Introduction is of はじめに は ですから 0.60
et al. on the など アル オン はあ? 0.48
one prediction early detection or 一つ 予測 早期発見か 0.66
Intel the chip instance, AI the Intelのチップ 例えば、AIは 0.71
(AI) the revolution Li et al (AI)革命Li et al 0.71
core techniques Artificial intelligence (2017); Zhong in the fourth industrial techniques have been emet (2017). core techniques artificial intelligence (2017)、zhong in the fourth industrial techniques was emet (2017)。 0.75
For al. fault prediction ployed to improve within production lines Kusiak (2017); Tao (2018) in intelligent manufacturing (IM). アルのために 故障予測は、生産ラインのKusiak(2017);理性的な製造(IM)のTao(2018)の中で改善するために展開されました。 0.50
A prominent achieve$3 million in 2012, in manufacsaved is ment that through costs turing predictive analytics to use of its prioritize and Burns. 2012年に300万ドル(約3億3000万円)という巨額の成果は、予測分析による優先順位とバーンズの使用コストによるものだ。 0.60
inspections Ronen silicon the Bosch company has published a dataset To this end, analysis comof data quality product petition platform Kaggle1. 検査 ronen silicon bosch companyはこの目的のためのデータセット、data quality product petition platform kaggle1を公開した。 0.74
The dataset reflects the releeach prodoperation of vant parameters and equipment reduce to the uct during hoping production dataset, products. データセットは、生産データセット、製品を期待している間に、バントパラメータと機器がuctに減少するreleeach prodoperationを反映します。 0.57
By defective several studusing ies have proposed prediction methods product Carbery algorithms based on centralized learning (2018, (2019b); al. いくつかの不備により、集中学習(2018、(2019b)に基づくCarberyアルゴリズムの予測方法が提案されている。 0.54
(2016); Huang et al. (2016年):黄ら。 0.40
et and Grobler Khoza al. とGrobler Khoza al。 0.49
et (2019); Liu (2020d); Mangal and Kumar (2016); Maurya (2016); et al et Zhang Moldovan real. et (2019); Liu (2020d); Mangal and Kumar (2016); Maurya (2016); et al et Zhang Moldovan real。 0.76
(2019); al. (2019)、al。 0.72
facts. First, important two sults revealed of these work has on preprocessing data a Bosch dataset signifthe Second, icant prediction the impact result. 事実だ まず、これらの作業が明らかにされた重要な2つのスルトは、ボッシュデータセットが第2に示すデータを前処理することで、影響結果を予測する。 0.59
among algorithm perthe CL the Random Forest algorithms, are formed better excluded Khoza and Grobler (2016) 1 performance ランダムフォレストアルゴリズムを用いたアルゴリズムperthe clのうち,better excluded khozaとgrobler (2016) 1の性能向上 0.75
process, this quality (CL) プロセス、この品質(CL)。 0.79
https://www.kaggle.c om/c/bosch-productio n-line- https://www.kaggle.c om/c/bosch-productio n-line 0.25
than others when time-series (2019); Zhang et al 時系列の時よりも (2019); Zhang et al。 0.69
(2019); Kotenko (2019年)講天講 0.54
2019); Hebert features 2019年)。 特徴 0.64
(2016). The (2016). あらすじ 0.60
on et 1 2 0 2 n a J 5 2 ] G L . オン など 1 2 0 2 n a J 5 2 ] G L . 0.70
s c [ 1 v 5 1 7 1 1 . s c [ 1 v 5 1 7 1 . 0.77
1 0 1 2 : v i X r a 1 0 1 2 : v i X r a 0.85
英語(論文から抽出)日本語訳スコア
2 Ning Ge et al. 2 ニンゲ など アル 0.54
to an the the へ アン はあ? はあ? 0.46
data to et above learning データ など 上 学習 0.65
obstacle across multiple 障害物 複数にまたがる 0.58
samples. Clients サンプル クライアント 0.60
problem, Google samples, without 問題、Google サンプルは無しで 0.76
in 2016 McMahan 2016年、マクマハン 0.62
(FL) learning learning encountered (FL)学習 学ぶこと 0.72
to federated collaborative the pointed from private by 協力して private (複数形 privates) 0.63
time-series CL to based scenarios, time-series CL to based scenarios 0.91
and the Long Short Term Memory (LSTM) network can prediction result when the features improve et Huang (2019b). そしてLong Short Term Memory (LSTM)ネットワークは特徴が等黄(2019b)を改善するとき結果を予測できます。 0.85
al. included methods are usuthat clients upload data require ally server. アル クライアントがデータをアップロードするには、allyサーバが必要である。 0.46
The the shared the on integrated model an server trains bedata real-world data. the shared the on integrated model an server train bedata real-world data (英語) 0.82
However, in private and organizations independent to longs multiple canbe not shared with others. しかしながら、longsに独立した民間組織や組織では、複数のcanbeが他と共有できない。 0.52
Therefore, data sharing has of CL methapplication arisen be to published report a out ods. したがって、cl methapplication のデータ共有は、レポート a out ods として発行される。 0.71
As UC Berkeley in chalof is data in one 2017, the field current AI lenges Stoica et al. カリフォルニア大学バークレー校が2017年に発表したデータによると、現在のAI分野はStoicaらだ。 0.58
(2017). response In concept the of centralize the FL (2016). (2017). 応答 概念的には、FL (2016) を中央集権化する。 0.74
trains models local holding devices sharing or changing the and transmit to server the build addresses FL hand, security Li data and On the other hand, removing out the more ples can be widespread attention many fields. ローカル保持デバイスを共有または変更し、ビルドアドレスFLハンド、セキュリティLiデータをサーバーに送信するモデルを訓練する一方で、より多くのplesを取り除くことは、多くの分野で広く注目されています。 0.70
For example, prediction on the of mobile better obtained prediction (2018). 例えば、モバイル上での予測はより良い予測を得た(2018年)。 0.65
Intel started to FL2. IntelはFL2を始めた。 0.60
tecture for FL has systems medical like fields al. FLのテクチュアには フィールドのような システム医療がある 0.72
(2019a); Sheller et Brisimi al. (2019)、Sheller et Brisimi al。 0.67
(2018); Huang Suzumura finance et Internet (2018b), city smart Liu et al. (2018)Huang Suzumura finance et Internet (2018b), City Smart Liu et al。 0.66
et (2019b), (2019), (2019); Saputra et al rakoon et al IOT Chen (2019), et al. et (2019b), (2019), (2019), Saputra et al rakoon et al IOT Chen (2019), et al al al。 0.77
Bakopoulou ing Physical Cyber al. Bakopoulou ing物理サイバーアル。 0.67
et Nguyen (2019), et (2020); Mowla al. et Nguyen (2019), et (2020); Mowla al。 0.71
et Aussel al. オーセル・アル(Ausssel al)。 0.26
the of field In enterprises, workshops, or crosses security, Due to data privacy is becoming The the line in prediction the assumption the under all der the premise data lines, these methods our to according ing FL to the field フィールドの分野 企業、ワークショップ、またはセキュリティを横断するデータプライバシーのために、すべての前提データラインの仮定を予測するラインになりつつあります。
訳抜け防止モード: 分野 企業、ワークショップ、またはセキュリティを横断する。 データプライバシーのために、予測のラインは、前提データラインから、すべての前提を想定しています。 これらのメソッドは、フィールドに ing FL に従います。
0.67
proposed deal. decentralized exprivate then encrypt these to back parameters trained model or the one On model. 提案された取引だ 分散型のexprivateは、これらを訓練されたモデルまたはオンモデルにバックパラメータに暗号化します。 0.52
integrated an privacy data as issues such critical (2019a). プライバシデータをクリティカルな問題として統合する(2019a)。 0.67
et (2020a); Yang et al. と(2020a):Yang et al。 0.74
al. withFL as trains model locally data the features, data private samreceived has FL CL. アル 列車が特徴をローカルにデータをモデル化する際、データプライベートはFL CLを持つ。 0.53
than complete applied has and recently been in Google launched a project and 2018 keyboard in input et using FL Hard results al. complete appliedと最近googleが立ち上げたプロジェクトと2018 keyboard in input et using fl hard results al。 0.66
the support hardware archialso been applied to various (2019b); Boughorbel al. 各種(2019b)にも適用されたサポートハードウェアアーチ;Boughorbel al 0.75
et et al. (2019); Yang al. など。 (2019) ヤン・アル。 0.45
Sama(2020b); computedge (2020); et al. Sama(2020b);Computerdge(2020); et al。 0.74
Systems (CPS) etc. システム(CPS)など。 0.77
process often even production lines. プロセス 頻繁に生産ライン。 0.72
application of CL the on the studies failure conducted been have shared. CLの応用 実施した研究の失敗は共有されている。 0.78
data are Unproduction between unfeasible. データは実現不可能です。 0.62
Nevertheless, apply(2020c), al. それにもかかわらず(2020c)、al。 0.71
infancy, and there 幼児期 そしてそこは 0.52
bottleneck. production that protection become ボトルネック 保護する生産は 0.55
(2019), the manufacturing (2019年)製造。 0.67
investigation Liu of in in の Liu を調査します。 0.49
et its IM is still など IMは それでも 0.55
and IM, al. そして IM。 アル 0.60
et of https://www.intel.co m/content/www/us/en/ artificial- など ですから https://www.intel.co m/content/us/en/arti ficial- 0.46
2 intelligence/posts/f ederated-learning-fo r-medicalimaging.htm l 2 intelligence/posts/f ederated-learning-fo r-medicalimaging.htm l 0.24
to as of へ として ですから 0.56
In on FL on 内 オン FL オン 0.69
it. are can CL. そうだ は できる CL。 0.70
four resp.) works (SVM) 四 反響) 作品 (SVM) 0.67
focuses whether research 焦点 それとも 研究 0.62
research compare SVM (RF 研究 比較 SVM (RF) 0.79
experiment data. Hence, we 実験 データだ ですから私たちは 0.70
construct FL construct FL 0.85
Although can is bridges defective comparing 可能だが 橋の欠陥比較です 0.74
are very achieved similar ufacturing paper of by tempt the 非常に達成された同様の利用紙です。 0.59
a hor(VFL) vertical the compared we the and (FedSVM) In latthe algorithms. A hor(VFL) vertical the compared we the と (FedSVM) In latthe algorithm. 0.84
the Federated Random Forest (FedRF) (RF) algorithms. フェデレーションランダムフォレスト (federated random forest, fedrf) アルゴリズム。 0.62
Each group of questions FL has few fields, whether it achieve in many success real-world manreplace CL in and performance question. 質問の各グループ fl には、多くの成功例、実世界のマンレプレース cl やパフォーマンス問題など、いくつかの分野がある。 0.66
Accordingly, this an still open study empirical an reporting by this gap line production in prediction product the atthe study This with FL is first design FL algorithms for failure prediction in line. したがって、この実験は、このギャップライン生成による予測製品における報告の実証実験であり、FLを用いたこの研究は、ラインの故障予測のための第一の設計FLアルゴリズムである。 0.63
production our addressing research In goal, we scenario FL izontal (HFL) and a scenario, respectively. 対処研究を生産する 目標として、FLアイゾンタル(HFL)とシナリオをそれぞれシナリオ化します。 0.75
the former, Federated Support Vector Machine Support Vector Machine ter, we and the Random Forest contrast (RQs). 前者、Federatedサポートベクター機械サポートベクター機械ter、私達およびRandomの森林の対照(RQs)。 0.65
◦ we RQ1, interested in the whole Bosch on CL testing average the whether performance dRF resp.) 私たちRQ1、CLテスト上のボッシュ全体に興味がある平均性能dRFのrespかどうか)。 0.67
is similar to the whole Bosch testing RQ2, we are interested of part on CL the the whether fore, we ask FedSVM (FedRF resp.) これは Bosch のテスト RQ2 全体と似ていますが,CL に先んじて,FedSVM (FedRF resp.) に質問するかどうかに興味があります。 0.73
is on resp.) resp (複数形 resps) 0.51
(RF FL RQ3, is if ucts other on replace CL. (RF FL RQ3, if ucts other on replace CL。 0.77
Hence, we formance FedSVM SVM (RF of that resp.) したがって、FedSVM SVM(RF of that resp)を形成します。 0.75
data? testing Bosch know we RQ4, want to heterogeneous data is or answers the and geneous FL selected it that means the is ask, bust. データ? テストBoschは、私たちがRQ4を知っていて、異種データが選択されたFLである、あるいは答えたいと知っています。
訳抜け防止モード: データ? boschは私たちrq4を知っていて、異種データを望む もしくは fl が選択した "is ask, bust" の答えです。
0.77
Therefore, we there data? それゆえデータはあるのか? 0.67
within testing the for manufachelpful are questions Answers to an evaluate how to into insights they a CL one in effects similar as answer it. テストの中で、for manufachelpfulは、回答と同じような効果をclに与えた洞察を評価するための回答である。 0.68
To replace then and subliterature 字幕や字幕を)置き換える 0.54
can replace data. データを置き換えることができます 0.62
Thereof performance average of to SVM that similar random partial Bosch data? 同じようなランダムな部分的ボッシュデータに対するSVMのパフォーマンス平均は? 0.79
testing applied proddefective predicting data, whether FL can unknown Bosch average the perresp.) FLが未知のボッシュ平均を過度に評価できるかどうか、適用された欠陥予測データをテストする) 0.58
is similar to unknown estimated 未知の推定に似ています 0.65
Bosch testing data is heteropositive, are algorithms are roheterogeneity local Boschテストデータはヘテロ陽性であり、アルゴリズムは局所的ヘテロジェネリティーである 0.65
replace ask FedSVM (Feon FedSVMを置き換えます。 0.60
whether the not. If the of RQ1-RQ3 そうでなくても RQ1-RQ3 の場合 0.67
ask whether (FedRF the on FedRF (複数形 FedRFs) 0.37
that of data? in whether データか? それとも 0.58
given these provide achieve application, これらの提供が 応用を達成 0.62
paper makes methodological, FL testing 紙は方法論的です FL試験 0.70
to the contributions theoretical and line. 理論的およびラインの貢献に。 0.75
the production in prediction to algorithm design, of terms conduct in based prediction the on failure first select RF from 予測からアルゴリズム設計への生産、つまり、故障時に最初にRFを選択することに基づく予測を行う用語 0.83
emon HFL pirical and previous works as CL baseline because both algorithms performed better deproblem sign 両方のアルゴリズムがより優れたデプロブレム符号を実行したため、エモンHFLの実証とCLベースラインとしての以前の作品
訳抜け防止モード: mon HFL の pirical と CL のベースラインとして以前の作品。 どちらのアルゴリズムも より良いデプロブレムサインを
0.54
previous works. Then, we algorithms 前の作品だ そしてアルゴリズム 0.53
than others FedSVM and research VFL, we 他のFedSVMや VFLの研究。 0.64
in the FedRF given Bosch FedRFでは bosch (複数形 boschs) 0.54
turing FL algorithm can a real-world these stantive, on failure First, turing flアルゴリズムは、失敗の第一に、現実の世界を想定できる。 0.57
questions, SVM and 質問だ SVMとSVM 0.69
this for our これ ですから 私達 0.63
◦ ◦ ◦ to of ◦ ◦ ◦ へ ですから 0.74
英語(論文から抽出)日本語訳スコア
Failure Prediction in Production Line Based 故障予測 生産中 線ベース 0.69
on Federated オン フェデレーション 0.57
Learning: An Empirical Study 学習: 経験的な 研究 0.68
3 Second, compare works terms 3 第二に 比較 work terms 0.77
based et al. Based et al. 0.66
sign, feature on (2020a). サイン、特徴 2020年)に登場。 0.62
our work selection we al. 私達の仕事の選択は アル 0.48
et Liu (2019); Bakopoulou existing algorithm dein In the of novelty improved FedRF by introducing optimal and steps. et Liu (2019); Bakopoulouの既存のアルゴリズムDeinのノベルティでは、最適なステップを導入してFedRFを改善しました。 0.67
pruning experimental methodof a propose set of performance average to the and FL on from three in manufacturing aspects: the whole the random partial testing data, and compare To data. pruning experimental method of a proposed set of performance average to the and FL on from three in manufacturing aspects: the whole the random partial testing data, and compare to data. 実験的な手法。 0.94
testing unknown estimated on CL and FL of the unprocess the follow Bosch data, we of MeasureSystems Analysis (MSA) to fit process resp.) 後続のBoschデータであるCLとFLの未知の見積りをテストし、プロセスのrespに適合させるために計測システム分析(MSA)を使用。 0.73
based on FL (CL (MC of prediction error MF The the compare and two of assess also to enhance the on replace CL. FL (CL (予測誤差MFのMC) に基づいて比較および評価の 2 つはまた onplace CL を高めるために評価します。 0.84
ology CL data, on testing the on estimated the performance known ment model resp.) ology cl data, on testing the estimated the performance known ment model resp.)。 0.78
experimental methods the whether Last, 実験方法 最後か、最後か 0.69
models. heterogeneity of RQ1-RQ3 モデル。 RQ1-RQ3の異種性 0.60
fitting the results testing FL our lution is not for tial, can within 結果に合致する テストfl 我々のルーションは tialのためのものではなく 0.70
data can research empirical significantly different on the whole, unknown Bosch application of process. データは、プロセス全体の未知のボッシュのアプリケーションで経験的に大きく異なる研究することができます。 0.57
failure prediction, estimated and on replace CL the 失敗の予測, 推定と置換 CL です。 0.71
shows sofrom the CL solution on the random pardata. ランダムなパーデータ上の CL ソリューションからそう示します。 0.67
FL prediction testing failure FL予測 テストの失敗 0.77
the manufacturing a Markov 製造は Markov (複数形 Markovs) 0.57
then that our FL じゃあ あれ 私達 FL 0.70
in in In the algorithms で で では アルゴリズム 0.72
introduce the this paper, we first remainder of research and reof background knowledge empirical our and present 2, Section lated work experiVFL in Section 3, the mental methodology in Section 4. 本論文では,第3節の遅滞作業体験VFL,第4節の精神方法論について,研究と背景知識の残りを実証的に紹介する。 0.72
Section 5 presents the discusses results 6 FL whether threat can replace looks and paper forward セクション5は、脅威が一見と紙を前方に置き換えることができるかどうか議論結果6 FLを提示します。 0.54
empirical our of Section validity. 実証的なセクションの有効性。 0.54
of Section CL. 8 future work. CLの略。 将来の8作。 0.67
to Section discusses this へ 節 これについて論じる 0.54
designed HFL outline study. HFL設計。 勉強だ 0.63
7 the and concludes the 7 と 結論 はあ? 0.57
2 Background and Related Work previous works introduces section This based the CL prediction quality uct discusses of the necessity conducting for on the FL algorithms this problem; federated of principles explains 背景 関連作業 前作では、CL予測品質 uct に基づくセクションを紹介し、この問題を FL アルゴリズム上で実施する必要性について議論します。 0.53
the on on Bosch algorithms はあ? オン Boschアルゴリズムについて 0.56
prodand empirical research and then, briefly 実験的な研究と 簡単に言えば 0.69
learning. 2.1 Failure Prediction 学ぶこと。 2.1 故障予測 0.63
in Bosch Production Line ボッシュ生産で 路線 0.55
leading of the manufacturing worldwide of the one Bosch is production by quality high ensures It companies. 先導者 one boschの世界的な製造は、品質の高いit企業による生産である。 0.56
processes. the in manufacturing its monitoring parts each detailed records Bosch Because on step data techniques advanced assembly the lines, they can apply this processes. プロセス。 監視部品の製造において、各詳細な記録がBoschである。 ステップデータ技術がラインを高度に組み立てる上で、彼らはこのプロセスを適用することができる。
訳抜け防止モード: プロセス。 製造におけるモニタリングパーツの各詳細レコードボッシュ ステップのデータ技術がラインを組み立てたため。 彼らはこのプロセスを適用することができます。
0.73
the improve to To end, manufacturing the Kaggle Bosch has published on competidataset by failures internal platform to tion thousands tests of measurements made for each component 最終的な改善として、kaggle boschの製造は、各コンポーネントに対して何千もの測定試験を施すのに失敗による内部プラットフォームによるcompetidatasetを公開した。 0.61
a predict and for 予測と予測 ですから 0.62
1. of etc. 1. ですから など 0.61
(2016); Some out (2016); いくつかは 0.60
(2019); Kotenko (2019年)講天講 0.54
the dataset line. データセット ライン 0.57
carried assembly and (2018, 2019); Hebert 担ぎ手 組み立てと (2018年、2019年)。 0.61
analyzed have studies along to predicting the approaches excluding timeproduct quality based on CL algorithms (2016); features Carbery et al series al. 分析された研究は、CLアルゴリズム(2016)に基づくタイムプロダクティビティ品質を除くアプローチを予測するとともに、Carbery et alシリーズを特徴とする。
訳抜け防止モード: 分析された研究は CLアルゴリズムに基づく時間生産品質を除くアプローチの予測(2016年) Carbery et al series に登場。
0.82
et (2019); Manand Grobler Khoza et (2016); Maurya al. Manand Grobler Khoza et (2016), Maurya al. (2019), Manand Grobler Khoza et (2016), Maurya al. 0.73
Zhang Kumar and gal et al. Zhang Kumar and gal et al。 0.81
features time-series Huang including (2016) or (2019), (2020d); Moldovan et al. 2016)または(2019)、(2020d)を含む時系列Huangを特色にします。 0.66
as (2019b); Liu al. として (2019b); Liu al。 0.92
et conducted were Table summarized works in Logistic learning methods, set based on a of including (GBM), Gradient Regression Boosting Machine (LR), Random Forest (RF), Gradient Boosted Trees (GBT), (BN), K-Nearest Naive Bayes Neighbors Machines (SVM), (MPC), Majority VotMultilayer Perceptron Classifier ing (DT), Statistical Process Control 研究は, (GBM), Gradient Regression Boosting Machine (LR), Random Forest (RF), Gradient Boosted Trees (GBT), (BN), K-Nearest Naive Bayes Neighbors Machines (SVM), (MPC), Majority Vot Multilayer Perceptron Classifier ing (DT), Statistical Process Control (DT), Statistical Process Control (DT), Statistical Process Control (DT) を含む,ロジスティック学習手法の表にまとめた。 0.83
(NB), Bayesian Network (KNN), Vector (NB)ベイジアンネットワーク(KNN)、ベクトル 0.70
(MV), Decision Tree (SPC), Carbery et al Carbery et al (MV), 決定木(SPC), Carbery et al Carbery et al al 0.75
Support These Carbery 支援 これら キャベリー 0.63
SVM achieved (2019) the Bosch SVM の達成 (2019年)ボッシュ 0.70
on quality al. (2016), Khoza RF, NB, performed 品質はal。 (2016)、Khoza RF、NB、実行されました。 0.58
conducted categorical, dataset, Bosch for 分類、データセット、ボッシュの実施 0.61
showed et accuracy. Mangal analysis a visual and numeric, and used quality 精度を示しました 視覚的, 数値的, 使用品質のマンガル解析 0.65
conducted a sysdataset and used al. sysdatasetを実行し、alを使用した。 0.57
et (2018). hetdata weakened (2016) RF, applied and then cluster. 2018年)。 hetdata weakened (2016) RF, applied, then cluster。 0.47
They showed algorithms. アルゴリズムを示しました 0.70
Based and Grobal. ベースとグローバル。 0.38
Khoza et et al. Khoza et et al。 0.78
They SVM, SPC. and compared that better. SVM、SPC。 より良く比較しました 0.63
Kotenko et al. Kotenko et al。 0.79
RF (2019) used SVM, KNN, LR, Perceptron, relatively and al. RF (2019) は SVM, KNN, LR, Perceptron, relative and al を使用した。 0.90
Mangal three the featime-series LR, Extra Trees prediction. マンガル第3シリーズ LR, Extra Trees の予測。 0.67
Hebert could propevents. ヘバートは長引くことができた。 0.23
Mauusing analysis feature tematic product predict BN to et al. モーリング 分析特徴 tematic product predict bn to et al。 0.57
Zhang Zhang et clustering, through erogeneity to Boosting, LR, NB, DT each that RF performed better than other Zhang on (2019) ler also showed Kotenko et al and MV and DT, prediction higher (2016) Kumar of types data: tures the on Classifier, RF, XGBoost Hebert erly identify conditions rya Maurya a GBM as studies Huang The Moldovan et (2019) al. Zhang Zhang et clustering, through erogeneity to Boosting, LR, NB, DT each that RF performed than other Zhang on (2019) ler also show Kotenko et al and MV and DT, predict higher (2016) Kumar of type data: tures the on Classifier, RF, XGBoost Hebert erly identify conditions rya Maurya a GBM as Study Huang The Moldovan et (2019) al。 0.82
tures. al. et Huang an tures cance found that the LSTM RNN model et al. チューズ アル et Huang an tures canceはLSTM RNNモデルなどを発見した。 0.48
machine Liu learning et formed proposed an unified et al. Machine Liu Learning et formed proposed an unified et al。 0.78
to capture prediction the among different the A-Bi-SP-LSTM model that ing data-driven methods. データ駆動手法を応用したA-Bi-SP-LSTMモデルの予測を捕捉する。 0.65
studies on Despite prediction, have been 予測にもかかわらず、研究されている。 0.58
(2020d); feaconstructed feasignifial. (2020d)feastructed feasignifial。 0.72
Moldovan outperal. Liu quality interactions temporal showed processes. モルドバ全盛期。 Liuの質の相互作用の一時的な示されたプロセス。 0.50
They the outperforms exist- classifier. 勝敗は存在する。 分類者 0.48
et al. have Huang LSTM network model which researchers. など。 研究者によるHuang LSTMネットワークモデルがある。 0.55
Moldovan (2019b); Liu et considered (2019b) al. モルドバ (2019b); Liu et considered (2019b) al。 0.73
et on based the enlightening has great et onベースの啓蒙は素晴らしいです。 0.57
the of data, other for (2019) other (2020d) データ、その他の(2019年)他(2020年) 0.75
found that RF and XGBoost lead to failure RF と XGBoost が失敗につながりました。 0.79
models. end-to-end モデル。 end‐to‐end 0.55
optimized MCC measure framework of features 最適化MCC測度 特徴の枠組み 0.77
learning all (2016) base すべてを学ぶ (2016年)基地 0.66
failure the as- for under 失敗します。 その下に 0.56
these they time-series time-series これらは 時系列 時系列 0.64
conducted features (2016) 実施 特徴 (2016) 0.71
that that al. by あれ あれ アル で 0.58
et など 0.59
英語(論文から抽出)日本語訳スコア
4 Ning Ge et al. 4 ニンゲ など アル 0.54
Table 1: Research Works テーブル 1:研究活動 0.77
on Failure Prediction in Bosch Production オン 故障予測 ボッシュ生産で 0.63
Line Objectives Improving predictive model without time-series features 路線 目的 時系列特徴のない予測モデルの改善 0.63
Improving predictive model with time-series features 時系列特徴を用いた予測モデルの改善 0.68
Ref Carbery et al. Ref Carbery et al。 0.75
al. et Zhang (2018) (2016) アル など。 (2018) (2016) 0.50
Khoza and Grobler 康座(こうざ) そしてグロブラー 0.31
(2019) Kotenko (2019) 皇典講 0.54
et al. (2019) など アル (2019) 0.59
Mangal and Kumar マンガル そしてクマール 0.33
(2016) Hebert (2016) ヘバート 0.62
(2016) (2016) Maurya al. (2016) (2016年) Maurya al。 0.82
et (2019b) et (2019b) 0.98
Huang Moldovan et al. 黄 モルドバとアル。 0.61
et Liu (2019) など りゅう (2019) 0.59
al. (2020d) アル (2020年) 0.57
Learning Method XGBoost, BN RF, Gradient Boosting, RF, SVM, KNN, Perceptron, LR, DT, MV LR, XGBoost LR, RF, XGBoost 学習方法 XGBoost, BN RF, Gradient Boosting, RF, SVM, KNN, Perceptron, LR, DT, MV LR, XGBoost LR, RF, XGBoost 0.84
LR, NB, DT SVM, NB, LR、NB、DT SVM, NB, 0.81
Classifier, Extra Trees SPC 分類器。 余分 木 SPC 0.65
RF, XGBoost Ontology-based work RF, GBT, NB, KNN, SVM, SP-LSTM models RF。 XGBoost Ontology-based work RF, GBT, NB, KNN, SVM, SP-LSTM model 0.82
LSTM neural net- LSTM 神経 net- 0.76
and MPC Contribution BN model RF RF SVM and MV outperform other models. mpcは 貢献 BNモデル RF RF SVM と MV は他のモデルより優れている。 0.68
XGBoost in different other models. XGBoost 他のモデルと異なります 0.84
performs well on performs outperforms うまくやります experforms―perperforms 0.69
and RF failure RF failure 0.66
better clusters. より良く クラスタ。 0.65
outperform other methods. prediction. 他の方法より優秀。 予測だ 0.66
can properly identify conditions events. 条件イベントを適切に識別できます。 0.61
a base network classifier. ベースネットワーク 分類者 0.59
yields a to RF and XGBoost leading failure Optimize MCC by using GBM as Ontology-based neural better The The models. を産出する へ RF と XGBoost リード障害 GBM を Ontology ベースのニューラル より良い The モデルとして使用することで MCC を最適化します。 0.61
performance LSTM RNN model A-Bi-SP-LSTM パフォーマンスLSTM RNNモデルA-Bi-SP-LSTM 0.58
LSTM outperform others. LSTM 他人に勝る 0.61
outperforms model outperformsモデル 0.83
other shared. Under all data are sumption that production lines, between protection data question An open unpractical. その他 共有。 すべてのデータの下には、生産ライン、保護データ間の仮定があります。 0.66
become ods FL there algorithms that can some exist study is a first attempt methods. ods FLとなると、ある研究が最初の試みとなるアルゴリズムが存在する。 0.75
Thus, our prediction failure algorithms したがって、予測失敗アルゴリズムは、 0.72
the premise of these methwhether is replace CL to design FL line. これらの前提は CL を FL ラインに置き換えるかどうかです 0.69
assembly the for 組立 はあ? ですから 0.53
in in selected 2, we well on the the HFL scenario, we で で 2 を選択し、HFL シナリオについてよく説明します。 0.71
tion Sect. performed In gorithm to compare we improve the existing Federated Forest compare with RF. イオンセクター。 その結果,既存の森林群落とRF群落を比較検討した。 0.44
to (2020a) al. to (2020a) al. 0.97
et SVM and RF models, which baseline. など SVMとRFモデルはベースラインです。 0.64
existing FedSVM althe VFL scenario, In algorithm Liu 既存の FedSVM アルゴリズム Liu で VFL シナリオ。 0.76
dataset, the SVM. データセット、SVM。 0.68
Bosch reuse Bosch の再利用 0.62
it with the as それと はあ? として 0.50
2.2 Overview of Federated 2.2 概要 フェデレーション 0.67
Learning 3.1 Federated 学習 3.1 フェデレーション 0.61
SVM on IDs usually SVM オン ID 通常 0.77
FL (TFL) FL (複数形 FLs) 0.71
we transfer classify learning 転送します 学習の分類 0.65
relationship between the datasets proAccording the to into HFL, by vided the clients, Kairouz VFL, and federated the HFL and VFL focuses article (2019). データセット間の関係は、クライアントであるkairouz vflを分割し、hfl and vfl focus article (2019) をフェデレートすることで、toをhflに置き換える。 0.66
This et al. user by partitioned are data or In HFL, scenarios. と言いました。 user by partitionedはデータかHFLのシナリオです。 0.50
manufaccontext in example, of the IDs. manufaccontext in example, of the IDs. 0.85
device For and B are two independent factories turing, clients A structure having and machine line production same the in each production line configuration. Device ForとBは2つの独立したファクトリであり、クライアント A構造体は各生産ライン構成において同一のマシンライン生産を行う。 0.83
The data features the same, their product while are roughly the lines do not production overlap. データの特徴は同じで、製品もほぼ同じですが、生産ラインは重なり合いません。 0.77
VFL is to datasets two that same the share cases the ID producexample, feature in differ but space space. VFLは、IDが生成するxampleと同じ2つの共有ケースをデータセットする。
訳抜け防止モード: vflは2つのデータセットに 共有ケースと同じ、idが生成するxample, feature in different but space space。
0.70
For belongs are lines tion independent, A and B but one belongs upstream, to the and the other to the downIDs product line. 所属するラインは、AとBが独立しているが、一方は上流に属し、もう一方はダウンID製品ラインに属します。 0.72
Their production entire the stream of interthe guarantees which the to likely are be same, A both section of their product space. 彼らの生産は、製品空間の両セクションである、おそらく同じであるであろう相互保証の流れ全体である。 0.78
However, since and B record part of manufacturing behavior, their feadesign ture very spaces FedSVM as as the VFL model, centralized SVM and RF models. しかしながら、BとBは製造行動の一部を記録しており、FedSVMをVFLモデル、集中型SVM、RFモデルとして扱う。 0.74
are different. the HFL model, respectively, to 異なります HFLモデルは、それぞれ 0.50
IDs applicable sample paper, we FedRF with ID適用サンプル paper, we FedRF with 0.82
In and compare in and comparison 0.78
this design on このデザインは オン 0.73
3 Federated 3 フェデレーション 0.66
SVM and Federated RF SVMとSVM フェデレーションRF 0.75
This learning algorithms この学習アルゴリズムは 0.81
section introduces the in this work. セクション 紹介 この作品の中で 0.58
Through the design 通り抜けて デザイン 0.66
the of federation investiga- はあ? ですから フェデレーション・スタディガ- 0.37
1) algorithm, is SVM learning suitable regression analysis. 1) アルゴリズム SVM学習に適した回帰分析です。 0.69
The and effectiveselect how depends on to SVM mainly the 3) and parameters, the kernel’s the 2) soft marFedSVM we In parameter. 効果的に選択する方法は、主にSVMに依存します 3)とパラメータ、カーネルの2)ソフトmarFedSVM We Inパラメータです。 0.75
work, use this with a SVM specifies kernel. SVM指定カーネルでこれを使用してください。 0.78
parameters and intercepts, the SVM models In FL, by integrated can be avthe to meet intercepts need first proposed classificafor mobile packet failure preour in Fig shown 1. is given by Algo. パラメータとインターセプト fl の svm モデルは、統合によって avthe となり、インターセプトを満たすには、最初に提案されたモバイルパケット障害のクラスifica for mobile packet failure preour in fig shown 1. is given by algo である。 0.58
of FedSVM steps FedSVM ステップの 0.79
a supervised As classification for ness of kernel, gin linear which can be directly weighted. a 監督された カーネルの ness の分類として、直接重み付けできる gin linear である。 0.68
clients on generated different eraging parameters the and of the server. クライアントはサーバとサーバの異なる消去パラメータを生成した。 0.78
The FedSVM algorithm is in Bakopoulou et (2019) al. FedSVMアルゴリズムはBakopoulou et (2019) alにあります。 0.78
tion. We have diction The and Algo. 禁忌だ ディクションTheとAlgoがあります。 0.33
1 2, explained are ◦ 1 2 と説明される。 0.80
adapted their FedSVM to process is server and respectively. FedSVMをそれぞれサーバとプロセスに適応させた。 0.80
The main hereafter. problem. メインはその後。 問題よ 0.65
algorithm of training client アルゴリズム トレーニングクライアント 0.62
Its the initialization: The (Ci) random そのこと 初期化: (Ci) ランダム 0.68
server train models using of parameters パラメータを用いたサーバトレインモデル 0.77
to value (S) the and to value (S)と 0.76
nolocal inter- S1. Parameter each client tifies with data cepts (w0). 地方間 S1。 パラメータ 各クライアントは、データ cepts (w0) で指定する。 0.68
S2. Local independently. local S3. S2。 地域独立。 ローカルS3。 0.75
Return trained locally parameters S. this to S4. 訓練されたローカルパラメータSをS4に返します。 0.67
Compute global erages Compute Global Erages 0.76
training: Ci trained トレーニング:Ci 訓練 0.68
values round the 値 ラウンド はあ? 0.58
◦ ◦ ◦ trains the ◦ ◦ ◦ 列車 はあ? 0.68
local SVM model ローカルSVMモデル 0.80
SVM parameters: Ci intercepts SVMパラメータ: Ciインターセプト 0.73
and returns (wi t) in そして 返します(wi t)。 0.71
SVM parameters: successive SVMパラメータ:逐次 0.77
two in S avround 二 で S avround 0.76
英語(論文から抽出)日本語訳スコア
Failure Prediction in Production Line Based 故障予測 生産中 線ベース 0.69
on Federated オン フェデレーション 0.57
Learning: An Empirical Study 学習: 経験的な 研究 0.68
5 ◦ ◦ as the 5 ◦ ◦ として はあ? 0.68
value wt ((cid:80) wi t +wt−1)/2 MG. global Send S5. value wt ((cid:80) wi t +wt−1)/2 MG.global Send S5。 0.80
value wt global in next round. 次回のラウンドで グローバルに価値を 0.71
convergence: Repeat S6. 収束: S6 を繰り返す。 0.75
Repeat of number iterationsa S5 in global model vergence. global model vergence における s5 の繰り返し。 0.75
The the as to clients the training result. クライアントとしてのtheは、トレーニング結果です。 0.67
SVM parameter: the train SVMパラメータ:列車 0.65
until specified in the to Ci 指定まで では ciへ 0.72
after last all その後 最後に 全部 0.64
MG to global model MG へ グローバルモデル 0.74
the S sends the model of S はモデルの送信を行います。 0.67
steps until round is ラウンドまでのステップは 0.77
S2 consent Fig. S2同意 フィギュア。 0.56
1: The Training Process of 1:訓練過程 ですから 0.60
FedSVM Server FedSVM サーバー 0.83
training SVM model FedSVMSVM model 訓練 SVMモデル FedSVMSVMモデル 0.80
Algorithm 2 Local Input: Global Output: w1 ←(cid:80)k 1: Inform all clients start Receive wi from all 2: clients 1 wi 3: 1 i=1 k to Send w1 4: all clients 2 (wt−1 +(cid:80)k t = 2 5: epoch for to N do Receive wi 6: from all t wt ← 1 7: i=1 all to 8: Send wt clients 9: for end アルゴリズム2 ローカルインプット: グローバルアウトプット: w1 (cid:80)k 1: Inform all client start receivee wi from all 2: client 1 wi 3: 1 i=1 k to Send w1 4: all client 2 (wt−1 +(cid:80)k t = 2 5: epoch for to N do Receive wi 6: from all t wt > 1 7: i=1 all to 8: Send wt client 9: for end 0.92
clients wi ) t k クライアント wi) t k 0.77
(cid:46) S1 (cid:46) S1 0.78
(cid:46) (cid:46) (cid:46) (cid:46)(cid:46) 0.86
S4 S5 S6 (cid:46) (cid:46) S4 S5 S6 (cid:46)(cid:46) 0.69
S4 S5 on FedSVM - Client (i = 1 client S4 S5 オン FedSVM - クライアント (i = 1 クライアント) 0.75
Algorithm 1 Data set Di client Input: i Local on SVM model Output: Initialize wi 1: 0 1 ← SVM(wi wi 0, Di) 2: Send wi server to 3: 1 4: t = 2 do for epoch to N global model wt−1 5: Receive t ← SVM(wt−1, Di) wi 6: Send wi 7: server to t 8: for Algorithm 1 Dataset Di client Input: i Local on SVM model Output: Initialize wi 1: 0 1 シュ SVM(wi wi 0, Di) 2: Send wi server to 3: 1 4: t = 2 do for epoch to N global model wt−1 5: Receive t シュ SVM(wt−1, Di) wi 6: Send wi 7: server to t 8: for 0.87
end k) to i 終わり k) 私には 0.71
(cid:46) (cid:46) (cid:46) (cid:46) (cid:46) (cid:46) (cid:46) (cid:46) (cid:46) (cid:46) (cid:46) (cid:46) 0.72
S2 S3 S6 S5 S2 S3 S2 S3 S6 S5 S2 S3 0.63
3.2 Federated Random Forest 3.2 連帯ランダムフォレスト 0.55
in Federated The al. で alをフェデレートした 0.59
Liu et can be regarded as tree. Liu et は木と見なすことができる。 0.81
decision The purity culating the 清浄度を決定すること 0.64
algorithm was Forest 2020 Liu et al. アルゴリズムはForest 2020 Liu et alでした。 0.81
first (2020a). 最初(2020a)。 0.86
The proposed by random forest the an integrated implementation of tree core (calby Gini of あらすじ ランダムフォレストによる木コア(カルバイ・ジニ)の統合実装の提案 0.51
decision represented the feature, steps each 決定は その特徴 ステップごとに 0.63
of al. and this the (2020a) the im- ですから アル そして、これが(2020a)im- 0.57
single all data in a involve only feature coefficients) in VFL client Each label. VFLクライアントの各ラベルにすべてのデータを格納する(特徴係数のみを含む)。 0.76
classification do can the work, have our In we its data. 分類は仕事、私達の私達のデータを持ってもいいです。 0.63
optimized on local algorithm in Liu random forest et federated and accuracy by improving to get better feature optimal steps pruning. Liuのランダムフォレストとフェデレーションのローカルアルゴリズムと精度に最適化され、より良い機能最適ステップの引き抜きを改善します。 0.77
The selection of is proved method illustrated Optimal feature the with the the CART method variables, メソッドの選択は、CART メソッド変数で Optimal 特徴を示すことが証明されています。 0.70
is to decision ous try to to divide coefficient. 係数を分断しようと決心するのです 0.50
Here we values when calculating the Gini duce steps of this function algorithm. ここでは、この関数アルゴリズムのGini duceステップを計算するときに評価します。 0.68
the is efficiency and hereafter. is is ♪ 効率とその後は 0.63
The coefficient tree. For 係数ツリー。 のために 0.50
selection: smallest Gini in 選択:最小のジーニ。 0.65
calculation of the There 訳語 計算する;計算する 0.59
the is necessary feature according continuall possible reimprove 必要なのは Feature according continuall possible reimprove 0.82
optimal and one pruning explicit no pre-pruning add a (2020a). 最適 そして 一つ pruning explicit no pre-pruning add a (2020a)。 0.73
Here we the improves robustness and algorithm. ここではロバスト性とアルゴリズムを改善する。 0.65
When the decision the decision―the decision 0.58
al. enhances overall process in function, efficiency tree finds アル 全体として 効率の木が発見する機能的なプロセス 0.49
the efficiency Pruning: et Liu which of the 効率のPruning: et Liu のいずれか。 0.80
it それ 0.69
英語(論文から抽出)日本語訳スコア
6 Ning Ge et al. 6 ニンゲ など アル 0.54
improve not new node will node. 新しいノードがノードにならないように改善する。 0.60
leaf to this node a of process training our in given Fig. このノード A は、特定の Fig をトレーニングするプロセスです。 0.55
2. The and Algo. 3 by Algo. 2. とアルゴ。 3 by Algo。 0.69
given in its training process その訓練過程において与えられる 0.65
improved algorithm FedRF of client アルゴリズムの改善 クライアントのFedRF 0.76
algoand respectively. The explained here- それぞれアルゴ。 説明します。 0.50
4, are the accuracy, 4です。 はあ? 正確さ 0.56
it will that the change The rithm is is server main steps after. そうだろう rithmの変更がサーバのメインステップであること。 0.63
◦ coefficient: Gini and local coefficient ◦ 係数: ジニと 局所係数 0.71
initial selects the and test 最初はテストとテストを選択します 0.56
(S) server The information: F(cid:48), sample the feature subset set T, and notifies them to each (S) サーバー 情報: F(cid:48)、機能部分集合 T をサンプリングし、それぞれに通知します。 0.76
S1. Select randomly ID subset D(cid:48) client (Ci). S1。 ランダムIDサブセットD(cid:48)クライアント(Ci)を選択する。 0.76
S2. Local training and pruning: Ci knows which selected, does features and been have not know the selected number of features globally. S2。 ローカルトレーニングとプルーニング: Ciは、選択した機能や、世界中の選択した機能の数を知らない。 0.76
Ci calculates in F(cid:48). CiはF(cid:48)で計算する。 0.70
Because each feature the Gini coefficient of the knows also the client, on feature client the only is Gini the samples, of labels the classification all so the the calculated coefficient by client represents global Gini coefficient. 各特徴のGini係数はクライアントも知っているので、特徴のクライアントでは唯一のGiniはサンプルであり、分類をラベル付けするので、クライアントによって計算された係数はグローバルGini係数を表します。 0.73
Ci obtains the optimal diviand coefficient, corresponding Gini and feature sion also feature. Ci は最適二乗係数、対応するジーニ、特徴量も得られる。 0.62
Ci this threshold division the retain of tree decision checks whether the accuracy the is of improved this optimal feature partition, and if on there pre-pruning that judges it improvement, no is needed. このしきい値分割によって、ツリー決定の保持は、この最適な特徴分割を改善する精度が向上しているかどうか、そして、改善を判断する事前処理がある場合、不要である。 0.70
is S3. Upload the Gini S. S4. S3です。 Gini S. S4をアップロードする。 0.76
Select globally global S5. グローバルs5を選択。 0.81
Send the S required, not notifies the ID return result; division clients all perform pruning to node. 必要な S を送信し、ID の戻り結果を通知しません。
訳抜け防止モード: 必要なSを送信し、IDの返却結果を通知しない ディビジョンクライアントはすべてノードへのプルーニングを実行します。
0.67
leaf decision: When local Send S6. 葉の決定:ローカルS6を送る時。 0.71
returns the required, notified feature dataset with viding the subtrees). 必要な、通知されたフィーチャーデータセットをサブツリーのバイディングで返します)。 0.48
the falls into and left notifies decision: S global Broadcast S7. S Global Broadcast S7。 0.25
first the forms and division ID of clients the of the knows Ci the of results decision tree. まず、クライアントのフォームと分割IDは、結果決定ツリーのCiを知っています。 0.67
existence knows ID division, but only the of the tree. 存在はIDの分割を知っていますが、ツリーのみです。 0.66
S global in features structure knows the feature corresponding the and entire the tree establish recursively Ci node. s global in features構造は、再帰的なciノードを確立するツリーと全体に対応する機能を知っている。 0.70
of each S and nodes and their left and right subtrees according F(cid:48) D(cid:48) they the nodes. 各Sおよびノードとその左右のサブツリーのうち、F(cid:48)D(cid:48)はノードである。 0.79
form leaf until and current built: until N tree S8. 葉を形成、現在の構築:N木S8まで。 0.79
Repeat trees form a N decision random forest. 繰り返し木はN決定ランダム森林を形成する。 0.83
is pruning features: If client corresponding to notifies S otherwise, processing to form a pruning features: s に対応するクライアントが s に通知した場合、a を形成する処理 0.76
other node each local of names new to 他のノードは、新しい名前のローカル 0.77
not is pruning of result the dithat (the ID set not は結果の pruning (ID セット) です。 0.72
global optimal optimal optimal feature. グローバル最適最適 最適な特徴。 0.71
client this right クライアント この右 0.71
uploads to features: S アップロードする 特徴:S 0.74
pre-pruning information プレプルーニング 情報 0.65
Iteratively selects 反復 selects 0.67
build the Ci to 造る はあ? ci へ 0.58
◦ ◦ ◦ ◦ ◦ ◦ ◦ ◦ ◦ ◦ ◦ ◦ 0.85
◦ The prediction process alyzes ◦ 予測過程 alyzes 0.76
the new data ID according 新しいデータは ID 0.63
is described as the to と記述されています へ 0.62
follows. Ci anstored tree. 次だ ci anstored treeの略。 0.57
For to k) then のために へ k) じゃあ 0.65
(cid:48) i ) T (cid:48) i ) T 0.92
then S2 (cid:46) S2 (cid:46) 0.79
(cid:46) S3 (cid:46) S3 0.78
then (cid:48) , F on じゃあ (cid:48) , F on 0.77
(cid:48) i (cid:48) 私は 0.66
client (i = 1 クライアント (i=1) 0.83
set D, from S the S セットD。 Sから S 0.60
FedRF improve to FedRF 改善する 0.80
cannot needP runingi 不要P runingi 0.54
= D − D , T ) same the D − D , T ) は同じである。 0.88
Algorithm 3 - Client Data set feature on Input: Fi Local FedRF model on Ci Output: 1: t = 1 for epoch do to N (cid:48) (cid:48) ⊆ D, ⊆ Fi, D Receive 2: T F i (cid:48) (cid:48) function TreeBuild(D 3: , F i (cid:48) all in D samples 4: have label if 5: return leaf node 6: end if BestFi, GiniP arai, thresholdi ← Gini(D 7: 8: accuracy BestFi if Send 9: 10: if 11: 12: 13: 14: 15: 16: 17: 18: 19: 20: 21: 22: 23: 24: 25: 26: 27: アルゴリズム 3 - クライアントデータセット機能 入力: Fi ローカル FedRF モデル on Ci 出力: 1: t = 1 for epoch do to N (cid:48) (cid:48) ・ D, ・ Fi, D Receive 2: T F i (cid:48) (cid:48) function TreeBuild(D 3: , F i (cid:48) all in D sample 4: have label if 5: return leaf node 6: end if BestFi, GiniP arai, thresholdi ・ Gini(D 7: 8: accuracy BestFi if Send 9: 10: If 11: 12: 13: 15: 15: 16: 18: 20: 22: 23: 25: 26: 27: 27: 30: 20: 21: 23: 23: 25: 27: 30: 12: 12: 12: 12: 15: 23: 23: 23: 23: 26: 30: 30: 27: 30: 30: 30: 30: 30: 30: 30: 30: 30: 30: 30: 30: 30: 30: 30: 30: 30: 30: 30: 30: 30: 30: 27: 27: 27: 30: 27: 27: 27: 27: 30: 30: 30: 30: 30: 30: 30
訳抜け防止モード: アルゴリズム3 - 入力に関するクライアントデータセット機能 : Ci出力上のFi Local FedRFモデル : 1 : t = 1 for epoch do to N ( cid:48 ) ( cid:48 ) ^ D, ... Fi, D Receive 2 : T F i ( cid:48 ) ( cid:48 ) function TreeBuild(D 3 :, F i ( cid:48 ) all in D sample 4 : have label if 5 : return leaf node 6 : end if BestFi, GiniP arai , thresholdi ← Gini(D 7 : 8 : accuracy BestFi if Send 9 : 10 : if 11 : 12 : 13 : 14 : 15 : 16 : 17 : 18 : 19 : 20 : 21 : 22 : 23 : 24 : 25 : 26 : 27 :
0.85
end to Send BestFi, GiniP arai S (cid:48)P rune(cid:48) message from S Receive if leaf node return (cid:48)Success(cid: 48) message Receive from S if (cid:48) (cid:48) (cid:48) with BestFi, get D Split D l , D r, Tl, Tr (cid:48) (cid:48) Send D to l , D r, Tl, Tr S (cid:48) (cid:48) leftTree ← TreeBuild(D l , F i (cid:48) rightTree ← TreeBuild(D r, F else (cid:48) from S Receive D r, Tl, Tr (cid:48) (cid:48) leftTree ← TreeBuild(D l , F i (cid:48) rightTree ← TreeBuild(D r, F end if tree return function this end to Send BestFi, GiniP arai S (cid:48)P rune(cid:48) message from S Receive if leaf node return (cid:48)Success(cid: 48) message Receive from S if (cid:48) (cid:48) (cid:48) with BestFi, get D Split D l , D r, Tl, Tr (cid:48) (cid:48) Send D to l , D r, Tl, Tr S (cid:48) (cid:48) leftTree ← TreeBuild(D l , F i (cid:48) rightTree ← TreeBuild(D r, F else (cid:48) from S Receive D r, Tl, Tr (cid:48) (cid:48) leftTree ← TreeBuild(D l , F i (cid:48) rightTree ← TreeBuild(D r, F end if tree return function this 0.97
, Tl) (cid:48) , Tr) i , Tl) (cid:48) , Tr) i 1.00
, Tl) (cid:48) , Tr) i , Tl) (cid:48) , Tr) i 1.00
end Add for decision end 追加。 決定 0.73
(cid:48) l , D (cid:48) l, D 0.90
forest node then 森林 node じゃあ 0.77
tree else end to 木 その他 終わり へ 0.66
on all clients オン 全部 クライアント 0.70
= D − D (cid:48) = D − D (cid:48) 0.82
to Ci (cid:46) ciへ (cid:46) 0.74
S1 the same S1 はあ? 同じだ 0.59
label then , needP runingk i i=1, key = GiniP arai) ラベル じゃあ , needP runingk i=1, key = GiniP arai) 0.73
i = 1 Send for i = 1 Send for 0.85
Algorithm 4 Sample Input: Global Output: t = 1 1: epoch for 2: to for (cid:48) 3: F i 4: 5: 6: 7: 8: 9: 10: 11: 12: 13: 14: 15: 16: 17: 18: 19: 20: 21: 22: 23: アルゴリズム4 サンプル入力:グローバルアウトプット: t = 1 1: epoch for 2: to for (cid:48) 3: F i 4: 5: 6: 8: 8: 9: 10: 11: 12: 13: 14: 14: 15: 16: 17: 17: 18: 19: 21: 22: 23: 23: 23: 0.87
end Server FedRFID, names feature FedForest model do to N k do (cid:48) ⊆ Fi, D ⊆ D, end (cid:48) function TreeBuild(D , T ) (cid:48) in D have node 終わり Server FedRFID, name feature FedForest model do to N k do (cid:48) > Fi, D , D, end (cid:48) function TreeBuild(D , T ) (cid:48) in D have node 0.85
samples all return leaf if サンプルが全葉を返したら 0.72
if T then to Ci もし T その後、Ciへ 0.75
, GiniP arak i 、GiniP arak i 0.76
end Receive BestF k i BestFs = M ax(BestF k needP runings == T rue if (cid:48)P rune(cid:48) message Send return leaf node if end (cid:48)Success(cid: 48) message to C Send (cid:48) (cid:48) from Ci Receive D r, Tl, Tr l , D (cid:48) (cid:48) other Ci to Send D l , D r, Tl, Tr (cid:48) leftTree ← TreeBuild(D l , Tl) (cid:48) rightTree ← TreeBuild(D r, Tr) tree return function end Add this for end Receive BestF k i BestFs = M ax(BestF k needP runings == T rue if (cid:48)P rune(cid:48) message Send return leaf node if end (cid:48)Success(cid: 48) message to C Send (cid:48) (cid:48) from Ci Receive D r, Tl, Tr l , D (cid:48) other Ci to Send D l , D r, Tl, Tr (cid:48) leftTree > TreeBuild(D l , Tl) (cid:48) rightTree > TreeBuild(D r, Tr) return tree function for this end 0.95
decision forest node 決定 森林 node 0.81
tree to (cid:46) 木 へ (cid:46) 0.70
S6 (cid:46) S6 (cid:46) 0.78
S7 (cid:46) S7 (cid:46) 0.78
S7 (cid:46) S7 (cid:46) 0.78
S8 (cid:46) (cid:46) S8 (cid:46)(cid:46) 0.75
S3 S4 (cid:46) S3 S4 (cid:46) 0.75
S5 (cid:46) S5 (cid:46) 0.78
S7 (cid:46) S7 (cid:46) 0.78
S8 S8 0.78
英語(論文から抽出)日本語訳スコア
Failure Prediction in Production Line Based 故障予測 生産中 線ベース 0.69
on Federated オン フェデレーション 0.57
Learning: An Empirical Study 学習: 経験的な 研究 0.68
7 Fig. 2: The Training Process 7 フィギュア。 2: トレーニングプロセス。 0.67
of FedRF ですから FedRF 0.69
is node subtrees. は nodeサブツリー。 0.67
When encountered, unknown an when each sample, the enters left the and right the sample the dividing (that means, known is node encountered client’s dataset), belongs node this this to of feature subtree according enters corresponding the sample the final data that falls threshold of the feature. いつ 検出された各サンプルが分割されたサンプル(つまりノードが遭遇したクライアントのデータセット)の左と右に入力された場合、そのノードは、この機能のしきい値に該当するサンプルに対応する機能サブツリーのこのノードに属します。 0.75
The to the the t intersection is tree global the of node leaf l the on node. t の交点への木は、ノードリーフ l のオンノードのグローバルである。 0.67
on data all leaf client that falls this of improvement evaluate We have experimented to the VFL constructed a we experiment, this In of FedRF. 改善評価の結果に該当するすべてのリーフクライアントのデータについて 我々は、VFLに対して、このFedRFの実験を行いました。 0.71
using data features sharing clients with scenario two features independent are 50 There dataset. データ機能を使用する シナリオとクライアントを共有する 独立した2つの機能は50である。 0.64
Bosch the the after extracted in each client, which are from different pro(PCA) component analysis principal experisamples. ボッシュは各クライアントで抽出された後、異なるpro(PCA)コンポーネント分析プリンシパル実験から抽出されます。 0.76
The 11154 same lines duction that be It 2. in Table results ment seen can federated the we get better results than ran(2020a). 表結果の1154の同じ行の誘導は、ラン(2020a)よりも良い結果が得られるようにフェデレーションすることができます。 0.74
al. et Liu in proposed forest dom アル 森林ドームにおけるLiu 0.41
the and are shown prediction algorithm 予測アルゴリズムが示されています 0.77
performing Table 2: 演奏 テーブル 2: 0.73
Improvement of FedRF 改良 ですから FedRF 0.71
Algo. ACC PRE アルゴ。 ACC 序 0.56
F1 MCC AUC F1 MCC AUC 0.83
FedForest Liu al. FedForest Liu al。 0.82
et (2020a) FedRF (Ours) et (2020a) FedRF (Ours) 0.94
0.552 0.493 0.552 0.493 0.59
0.550 0.118 0.550 0.118 0.59
0.559 0.825 0.559 0.825 0.59
0.802 0.883 0.802 0.883 0.59
0.593 0.866 0.593 0.866 0.59
4 Methodology 4.1 Experiment Overview and Research 4 方法論 4.1 実験概要と研究 0.81
questions there is a 質問 そこ は あ... 0.56
big difference for replace CL algorithms can we end, construct 大きい 違いは clアルゴリズムを置き換えられるか? 0.64
studies whether effectiveness of FL and CL algorithms FLアルゴリズムとCLアルゴリズムの有効性に関する研究 0.68
beThis paper failtween the and then whether ure prediction on the production line, probFL algorithms scenarlem. be this paper failtween and then whether ure prediction on the production line, probFL algorithm scenarlem。 0.75
this To compare FedSVM and SVM. これはFedSVMとSVMを比較する。 0.76
is HFL, where we ios. は HFL で、ここでは ios です。 0.69
One effectiveness compare is VFL, where we other The four questions and FedRF of design both HFL and VFL. 他の4つの質問と設計のFedRFは、HFLとVFLの両方です。
訳抜け防止モード: 1つの有効性の比較はVFLです。 私達は他の4つの質問および設計のFedRF HFLおよびVFL両方。
0.72
The concerns (RQ), each of which association logical as four RQs the between 3. shown in the whole Bosch difference same the 関連性(RQ)は、それぞれが4つのRQとして論理的であり、ボッシュ全体の3間の関係は同じである。 0.68
dataset, is FedSVM for FedRF データセットはFedRF用のFedSVMである 0.60
testing between question this production 質問間のテスト この生産は 0.78
Fig. RQ1: On フィギュア。 RQ1:オン 0.67
a SVM? We significant ask SVM? 私たち 重要な質問 0.63
the research depicted, 研究は 描かれています 0.56
RF. We two on RF。 私たち 二 オン 0.70
is there and and RF. は そこにおよびRF。 0.74
comparing the average performance testBosch algorithms on the each of value between difference the = it δ 0.1), threshold within is the difference significant no there that considered is on algorithms this pair of the Bosch testing 平均的な性能テストBoschアルゴリズムを、差点 = = δ 0.1 の値それぞれで比較すると、閾値は、このボッシュテストのアルゴリズムでは考慮されていない差分である。 0.81
whole the δ ( δ (複数形 δs) 0.57
RQ1 is aimed at CL FL and of ing If dataset. RQ1 は CL FL と ing If データセットを対象としている。 0.72
measurement can be between dataset. 測定はデータセットの間です 0.71
RQ2: dataset, FedSVM and for RQ2:データセット、FedSVMなど 0.83
On the there is FedRF そこにあるのは FedRF 0.83
and RF. random a significant ask そしてRF。 ランダムに重要な要求を 0.63
SVM? We Bosch difference same the SVM? 私たち Bosch の相違点 0.74
testing between question partial 質問間のテスト partial~ 0.76
英語(論文から抽出)日本語訳スコア
8 Ning Ge et al. 8 ニンゲ など アル 0.54
Fig. 3: Experiment Overview and Research Questions フィギュア。 3:実験の概要と研究課題 0.64
RQ2 is aimed at comparing the average performance of the CL FL and algorithms partial on the random that dataset Bosch testing timeconsecutive contains results prediction the samples. RQ2 は CL FL の平均性能と,Bosch テストの時系列データにサンプルの予測結果を含むランダムなアルゴリズムを部分的に比較することを目的としている。 0.77
series If no signifthat means it icant the pair difference, algorithms random partial perform similarly on the data. series 対差を偶発するシグニフがない場合、アルゴリズムはデータをランダムに部分的に実行します。 0.76
RQ3: On the estimated unknown Bosch data, there a significant difference between FedSVM is and for FedRF and RF. RQ3: 推定未知のBoschデータでは、FedSVMとFedRFとRFには大きな違いがあります。 0.70
have of testing SVM? テストして SVM? 0.75
We question same 私たち 質問 同じだ 0.68
ask the and data. 聞いて はあ? データです 0.44
to RQ3 is aimed at of FL Bosch method CL algorithm on the given data, as steps of Construct prediction へ rq3は構成予測のステップとして与えられたデータに基づくfl bosch法clアルゴリズムを対象としている。 0.66
comparing the average performance estimated on algorithms the unknown CL designed RQ, answer we have this a To distribution the error of and compare the on data unknown estimated shown in Fig 4. アルゴリズムで推定された平均性能を未知のCL設計RQと比較し、これを答えて、図4に示す未知のデータの誤差を分布させ、比較します。 0.83
This method consists (S1-S4), four main prediction S1. この方法は、4つの主な予測S1である(S1-S4)。 0.55
table a struct the label, (GT) prediction products of algorithms 表 a struct the label, (gt) prediction products of algorithms 0.79
hereafter. confirst truth ground the containing and (Pre) of CL FL results by ordered timestamp (ts). その後だ confirst truth ground the containing and (Pre) of CL FL results by order timetamp (ts)。 0.62
sequence. The timed state シーケンス。 時代遅れの状態 0.62
S2. Construct FL based S2。 構造 FLベース 0.71
table. We explained テーブル 私たち 解説 0.57
prediction GT state: negative; 3) mistake 予測GT状態:陰性; 3)誤り 0.52
represent the bels: hit 1) negative + Pre Pre negative; itive. hit 1) negative + pre pre negative; itive を表わす。 0.62
Fit Markov S3. フィットマルコフS3。 0.68
using the timed state respectively. それぞれタイムド状態を使用する。 0.72
states the GT lacompared error + positive GT Pre state: GT positive + 2) miss state: GT negative + Pre pos- 状態 GT lacompared error + positive GT Pre state: GT positive + 2) miss state: GT negative + Pre pos- 0.83
to positive or ポジティブに あるいは 0.69
models. We sequence, and モデル。 シークエンス、そして 0.58
fit obtain Markov MFL fit 取得 マルコフMFL 0.75
model and MCL, Compare モデルとmcl。 比較 0.71
S4. difference and FL the between the (δ = 0.1), threshold δ the within predictive models CL FL and unknown estimated data S4。 違い そして FL は (δ = 0.1)、しきい値δ は内部予測モデル CL FL と未知推定データの間のものである。 0.80
If CL Markov models. CLマルコフモデルの場合。 0.72
and of parameters is MFL MCL difference between the on similar will maintain if production line そして変数のMFL MCLの相違は生産ラインが維持すれば同じようなです。 0.78
Bosch the ◦ ボッシュ はあ? ◦ 0.56
and quality そして quality 0.78
control process, コントロール プロセス 0.62
testing impact heterogeneous? テストの影響 不均一? 0.64
heterogeneity manufacturing structure, are not changed. 異質性 製造構造は変わっていません 0.71
methods data Bosch RQ4: Is the what And of data is of RQ1-RQ3? メソッドデータ Bosch RQ4:データとRQ1-RQ3とは何ですか? 0.87
results the on on heterogeneity RQ4 analyzes the of impact data heterogeneity the evaluate of RQ1-RQ3. その結果、RQ4はRQ1-RQ3の評価する影響データ不均一性を分析します。 0.65
To results the selected randomly of first of data, we obtain N groups Di, labels GT then samples continuous and uses the state (GT positive as states and GT negative state) to Si we Then GT. 最初のデータの選択されたランダムな結果を得るために、私たちはNグループDiを取得し、GTをラベル付けし、連続的にサンプルし、Si We Then GTに状態(GT陽性、GT負の状態)を使用します。 0.66
transition construct the state Mi perform DBusing the Markov model fit GT parameter the Ester SCAN et al. transition construct the state Mi perform DBusing the Markov model fit GT parameters the Ester SCAN et al. 0.85
clustering Mi clustering the shows multiple If GT. クラスタリング Mi クラスタリングは複数の If GT を示す。 0.80
matrix of heterogenedata different that means it clusters, distance is ity strong. ヘテロゲネダタのマトリックスは、それがクラスターを意味する異なる、距離は強いです。 0.62
DBSCAN calculates between two matrices parameter matrices two the into a one-dimensional anless gle between the the than the two-parameter matrices same cluster. DBSCANは、2つの行列パラメータ間の2つの行列を、2つのパラメータの同じクラスタ間の1次元の無意味な角度に計算する。 0.62
of results Based the heterogeneity, means (Y of RQ1-RQ3 there CL, FL between and N difference between FL and aspects. 結果から、 (y of rq1-rq3 there cl, fl between and n difference between fl and aspects) となる。 0.62
four sequence Si and GT, (1996) on result the the converting 四 配列 Si と GT, (1996) の変換結果。 0.70
calculating the included angle is threshold, on the 含まれる角度を計算することは しきい値です 0.84
specified neighborhood distance regarded as significant there will be 指定された近隣距離 重要になるでしょう 0.63
concludifis signifanalyzed concludifis signifanalyzed 0.85
by vector If vectors. by vector ベクトルの場合。 0.86
no is means CL) no は CL を意味する 0.87
and the following can be そして 以下 あり得ます 0.63
two the on sions ference icant from the ◦ 二 はあ? オン sions ference icant (複数形 sions ference icants) 0.55
the strong, is heterogeneity data the If the then conclusion will are Y, to RQ1-RQ3 manufacturing strengthened. 強い、不均質データです 結論がYであれば、RQ1-RQ3製造が強化されます。
訳抜け防止モード: The strong, is heterogeneity data: if the then conclusion will be Y, RQ1-RQ3製造強化。
0.86
our In ther can CL and the algorithms FL diction and results replace can heterogeneity If is data the in RQ1-RQ3 it means is N, 我々の in ther can cl とアルゴリズム fl diction and results replace any heterogeneity if is data the in rq1-rq3 it means is n, 0.84
obtain other. each some and strong answer heterogeneity that data 他を入手する。 各々の強い答えは データの異質性に 0.56
answers furbe scenario, pre- 答えはfurbeのシナリオ、pre- 0.61
similar and 類似 そして 0.73
英語(論文から抽出)日本語訳スコア
Failure Prediction in Production Line Based 故障予測 生産中 線ベース 0.69
on Federated オン フェデレーション 0.57
Learning: An Empirical Study 学習: 経験的な 研究 0.68
9 Fig. 4: Comparing 9 フィギュア。 4:比較 0.69
FL and CL algorithms FL そしてclは アルゴリズム 0.71
on the Estimated Unknown Bosch Data オン 推定された未知のボッシュデータ 0.61
◦ ◦ of for ◦ ◦ ですから ですから 0.70
the one disturbing reasons はあ? 一つ 乱れ 理由 0.59
may be sions. weak and heterogeneity If the data can to RQ1-RQ3 concluded it are Y, algorithm can replace the CL one under data homogeneity. シオンかもしれない もしデータが RQ1-RQ3 に対して Y であると結論づければ、アルゴリズムはデータ均質性の下で CL を置き換えることができる。 0.65
of the If data in RQ1-RQ3 cannot RQ1-RQ3 の if データの 0.81
is it means even with たとえ意味があっても 0.78
heterogeneity is N, replace CL 異質性は CL を置き換えます。 0.72
is be some weak that FL homogeneous is be ♪ FLが均質である弱点 0.67
and the answer algorithm data. そして アルゴリズムデータに答える。 0.65
4.2 Measurements of 4.2 計測 ですから 0.61
the one and はあ? 一つ そして 0.57
used (PRE), commonly 使用 (PRE) 一般に 0.66
analysis methods (ACC), Precision 分析方法 (ACC)精度 0.69
are (MCC) the in use 使用中である(MCC) 0.73
system. testing and CL システムだ テストとCL 0.72
in MSA is learning-based manufacturing Montgomery (2007). MSAでは、学習ベースの製造Montgomery(2007)です。 0.64
The seen as a product qualfailure prediction method can be company’s the Bosch Taking ity measurement benchmark, we results quality product a can as the MSA algorithms analyze the FL through in MSA mainly method. プロダクト qualfailure の予測方法として見ることは会社の Bosch の取得の ity の測定のベンチマークである場合もあります MSA のアルゴリズムが MSA の主に方法によって FL を分析すれば質プロダクト A 缶を結果にします。 0.73
The evaluation measurements include Accuracy Stabiland Matthew’s Correlation ity. 評価には、Acuracy Stabiland Matthew's correlation ityが含まれる。 0.64
On this basis, F1, AUC, Coefficient also involved. これに基づいて、F1、AUC、Coefficientも関与した。 0.65
The six measureare study empirical we ments in provided of GT positive Table 3, where P represents the number cases, TP of GT negative cases, N is (hit) negative, is true rejection) is true FP (false false is and FN (miss) negative. 6つの測度は GT 正の表 3 で表され、P は GT 負の場合の TP であり、N は (hit) 負、N は (hit) 負の) 正の FP (false false is and FN (miss) negative) である。
訳抜け防止モード: GT陽性表3を具備した実験Weメントの6つの測定値 ここでPは数の場合、GT負の場合のTPを表す。 N は(ヒット)負、真拒否 ) は真 FP である(偽偽は偽) と FN ( Miss ) negative である。
0.82
MCC of rethe prediction evaluating for used commonly a AUC is data. MCC 一般的に使用されるAUCの予測評価はデータです。 0.62
sults the its and is value method, evaluation two-category line. sults its and is value method, evaluation two-category line。 0.81
reference and the ROC curve the by enclosed area and rate, false positive the is a ROC curve of The x-axis is curve a ROC the true positive rate. 参照およびROCのカーブは封じられた区域および率によって、偽陽性ですx軸のROCのカーブはカーブROCです真の正の率です。
訳抜け防止モード: 基準とROC曲線は、囲まれた面積とレートによって表される。 false positive the is a ROC curve of The x - axis is curve a ROC the true positive rate .
0.92
It the y-axis of sensitivity clinical relationship shows and between the graph with: specificity for It is a 感度臨床関係のy軸とグラフ間の関係: it の特異性は a である 0.80
is suitable unbalanced positive, TN (correct バランスがとれず TN (複数形 TNs) 0.69
positive, possible number ポジティブ 可能 番号 0.61
cut-off. alarm) カットオフ。 警報) 0.66
every false the すべて false はあ? 0.62
is the conclu- は はあ? conclu―conclu 0.54
Table 3: Measurements answers the that the FL the premise テーブル 3:測定 FLが前提であることに答える 0.79
Measurement Formula ACC TP + TN 測定 公式 ACC TP + TN 0.77
F1 PRE AUC MCC F1 序 AUC MCC 0.73
Stability TP × TN − FP × FN 安定性 TP × TN − FP × FN 0.77
TP + FN + TN + FP TP TP + FP 2TP (cid:112)(TP + FP)(TP + FN)(TN + FP)(TN + FN) 2TP + FP + FN enclosed area The curve ROC by the reference the and line for N groups of tendency The accuracy of continuous random data selected group. TP + FN + TN + FP TP + FP 2TP (cid:112)(TP + FP)(TP + FN)(TN + FP)(TN + FN) 2TP + FP + FN 閉じた領域 傾向の N 群の基準と直線による曲線 ROC 連続ランダムデータ選択群の精度。 0.83
(cid:0)= FP/(FP + TN)(cid:1) The (cid:0)= TP/(TP + FN)(cid:1). (cid:0)=FP/(FP + TN)(cid:1)=TP/(TP + FN)(cid:1)。 0.94
The 1-specificity The x-axis range y-axis showing sensitivity 1. and is of AUC value 0 between Stability measurethe of ability the characterizes system to maintain a constant performance within ment into set divide range. 1特異度 感度1を示すx軸範囲y軸で、安定度測度間のAUC値0であり、ment内で一定の性能を設定分割範囲に維持するシステムを特徴付ける。 0.81
We the test N time a certain time-series according on average the to (N = 10) groups of accuracy the and calculate these N groups to analyze the of the stability target algorithm. 実験Nでは、ある時系列を精度の to (N = 10) グループの平均値に従って時間し、これらの N グループを計算し、安定性目標アルゴリズムの解析を行う。 0.83
showing 4.3 Bosch Dataset 表示 4.3 Bosch データセット 0.65
is the datasets of a (1183748 は はあ? a(1183748)のデータセット 0.61
The Bosch dataset turing consists set features: feature, ing the Boschデータセットのチューリングは、以下の機能で構成されています。 0.57
largest public manufacof one dataset on Kaggle. kaggleで最大の公開manufacof oneデータセット。 0.76
The Bosch (14.3Gb) test and samples) (1184687 set training a of has sample Each types samples). Bosch (14.3Gb)テストおよびサンプル)(1184687セットの訓練aにサンプルがあります各タイプのサンプル)。 0.81
three and feature, numeric feature, date two-category indicatlabel classification status 3と特徴,数値的特徴,日付2カテゴリーの分類状況 0.83
categorical and a faulty カテゴリー的で欠陥がある 0.55
product. of a 製品。 ですから あ... 0.48
英語(論文から抽出)日本語訳スコア
10 Ning Ge et al. 10 ニンゲ など アル 0.54
of of on each the ですから について それぞれが 0.58
research data on the features 研究データ 特徴について 0.74
estimated are shown in the dataset, 見積はデータセットに示されます 0.73
the time passes. the LSTM neural 時間が過ぎます。 LSTMニューラルは 0.68
site stamp Based date timed behavior. サイトスタンプベースの日時指定行動。 0.70
Exnetwork al. Exnetwork al。 0.79
et (2019). without from inem- と2019年)。 inemを使わずに。 0.50
gives feature date The product which the through to analyze is possible it feature, constructed studies have isting time-series on based models Huang information (2020d); al. 特徴日を示す 分析のスルーが機能する可能性がある製品、構築された研究は、Huang情報(2020d)に基づいて時系列を割り当てている。 0.70
Liu et (2019b); et Moldovan al. Liu et (2019b), et Moldovan al. 0.82
on research empirical on we Since focus FL information, time the date features are excluded time-series the the study. fl情報に焦点を当てた研究経験則では,研究の時系列化に要する日時特徴は除外される。 0.74
Nevertheless, our scope time-continuity data formation can still provide for data. それでも、私たちのスコープタイムコンティニュティデータフォーメーションは、データを提供することができます。 0.51
unknown pirical The 4. in Table There are 1184687 products including 1177808 pos(Pos) and 6879 negative ones samples itive In the space, feature the features. 未知のピリカル the 4. 表には 1177808 pos(pos) と 6879 の負のサンプルを含む 1184687 の製品があり、その特徴を特徴としている。 0.73
feadataset collected are tures on 4 from 51 workstations lines production and contain that 168, L0-L3 respectively. Feadataset は51のワークステーションの4つから集められ、それぞれ168、L0-L3を含む。 0.65
features, 245 L1 that S24 F1695 No.1695 feature the was workthe observed at station of the L1 Response line. 245 L1とS24 F1695 No.1695はL1応答線のステーションで観測された。 0.72
The label production represents whether (label qualified final is product the or = 0) not data of perspective (label = 1). ラベル生産 (label qualified final is product the or = 0) not data of perspective (label = 1) を表す。 0.77
From the are result (0.58%) only a items, few items in the dataset qualified, and the data is unbalanced. その結果(0.58%)は項目のみであり、データセットの資格を持つ項目は少なく、データは不均衡である。 0.80
The extremely few workstasparse, with extremely is data a also tions collecting data from most al. 非常に少数のWorkstasparseは、ほとんどのalからデータを収集するデータも非常にあります。 0.77
(2019). (Neg). (2019). (Neg) 0.71
These (S1-S51) 513, 42, indicates No.24 S1-S51) 513, 42, No.24 0.73
products Carbery product + carbery 0.63
only 968 has et ただ 968 あり など 0.62
Table 5: Data Description テーブル 5:データ記述。 0.83
of HFL Scenario Sample Num. hflの シナリオ サンプル番号。 0.70
Total client Per Positive 12000 3000 総顧客 パー 正の12000 3000 0.64
Negative Feature Num. 6000 1500 負 機能番号。 6000 1500 0.70
713 selected given 713 選択 ですから 0.69
testing the on RF and FedRF compare To lines production three first that the assumed is it data, same to belong dataset the Bosch the (L0, of L2) L1, to belongs line production the L3 organization O1, and independent. オンRFとFedRFの比較テスト ライン生産に3つまず、想定されたデータがデータであり、ボッシュ(L0、L2)L1のデータセットに属し、ライン生産にL3組織O1に属し、独立している。 0.77
are and O2 organization O2. は O2 組織 O2 です。 0.76
O1 another ID and same have the and O2 samples Since in O1 the data The applied. o1 ではデータが適用されるため、別の id と o2 のサンプルが同じである。 0.69
set is characteristics, different VFL shown in Table 6. 設定は特性、表6に示す異なるVFLです。 0.77
We the FedRF experiment used in is features L2 and L1, L0, to the extract as belonging the another features and a group, belonging to L3 as analysis perform principal we Then group. We used in the FedRF experiment in in the feature L2, L1, L0, to the extract as belonging the other features and a group, belongs to a analysis as principal we then group。 0.81
component feature reduce (PCA) to the from over22/22, to 723/245 respectively. コンポーネント機能(PCA)を22/22以上から723/245まで減らします。 0.71
According of PCA results, all analysis can reducing represent more 95% of 22 to dimensions, cause too posiThe information much tive and negative and 6000, respectively. pcaの結果によると、すべての分析は22次元のうち95%以上を減少させ、それぞれ負と負の情報が多すぎる。
訳抜け防止モード: PCAの結果によると、全ての分析は22次元の95%以上を削減できる。 cause too posiThe information much tive and negative, and 6000。
0.69
first the variance, than so the not respectively, which will (2016). まず、ばらつき(distribution)は、それぞれがそうではないもの(2016年)である。 0.55
al. Zhang loss et sample are numbers 12000 アル Zhang loss et sample is number 12000 0.58
in O1/O2 the dimensions dimension O1/O2の次元 次元 0.69
22 to Table 4: Bosch 22 へ テーブル 4:ボッシュ 0.74
dataset Sample Num (1184687) Positive Negative 1177808 データセット サンプル番号(1184687)陽性陰性1177808。 0.67
6879 Features Num (968) L3 L0 168 245 6879 特徴 Num (968) L3 L0 168 245 0.89
L1 513 L2 42 L1 513 L2 42 0.88
Table 6: Data Description テーブル 6:データ記述。 0.83
for VFL Scenario Sample Num VFL用 シナリオ サンプル番号 0.76
Positive Negative Total Client O1 Client O2 陽性 負 総 クライアント O1 クライアント O2 0.64
12000 6000 12000 6000 0.85
Feature Num 44 F44) F22) 22 22F44) 特徴 Num 44 F44) F22) 22 22F44 0.88
(F1 (F1(F23 (F1(F1)(F23) 0.64
4.4 Experiment Scenarios 4.4 実験 シナリオ 0.61
of HFL and VFL hflの そしてvfl 0.63
5 Experiment Results the SVM on 5実験結果 はあ? SVM 0.56
compare FedSVM and FedSVMとFedSVMの比較 0.67
To form four workshops A, B, C, data manufacturing have but production the configuration of are features the that product and ferent samples, each sample workshop can be regarded as shows 5 ble 4 on of the samples ber the experiment, the data average, all to clients on positive and 1500 negative have features A,B,C,データ製造は4つのワークショップを形成するが、その製品とフェレントサンプルが特徴であり、各サンプルワークショップは、実験で得られたサンプルの5つのブル4、データ平均、正のクライアント、1500の負のクライアントにそれぞれ特徴を有するものと見なすことができる。 0.82
data, we testing share do not structure and premise the contain difID. データ、テストの共有は、contained difIDの構造や設定はしません。 0.69
Each client. Taexperiment. 各クライアント。 実験。 0.72
The numthe data used in this the basically In is clients distributed randomly is set which 3000 each of possesses samples. 基本的にInはランダムに分散されたクライアントであり、それぞれ3000がサンプルを持っている。 0.67
The four workshops of 4つのワークショップ 0.69
and D that the same line. そして、同じラインをD。 0.69
Under they aligned, has a unique an independent その下には独特な独立性があり 0.70
common same. data. 共通 同じだ データだ 0.70
713 experiments Our questions. 713 実験 我々の質問だ 0.77
investigate and answer four 調査 そして 答え 四 0.71
research 5.1 RQ1: Comparison 研究 5.1 RQ1: 比較 0.74
on Bosch Testing Data Boschテストデータについて 0.74
5.1.1 FedSVM vs. 5.1.1 FedSVM vs. 0.62
SVM 7 the shows SVM 7 はあ? ショー 0.68
experimental ensure Table consistent, the data set and the algorithm kernel are result the is the number baseline FedSVM when of into ie., set is clients FedSVM degenerates 1, to premise, this Under the FedSVM and 実験 テーブルの一貫性を保証するため、データセットとアルゴリズムのカーネルは結果としてFedSVMの数値ベースラインとなる。
訳抜け防止モード: 実験 テーブルの一貫性を保証するため、データセットとアルゴリズムのカーネルは結果としてFedSVMの数値ベースラインとなる。 前提に これは FedSVM と
0.64
that the of SVM. SVM SVMのことです。 SVM 0.74
results. To results of 結果だ へ 結果 ですから 0.64
英語(論文から抽出)日本語訳スコア
Failure Prediction in Production Line Based 故障予測 生産中 線ベース 0.69
on Federated オン フェデレーション 0.57
Learning: An Empirical Study 学習: 経験的な 研究 0.68
11 compared. When ordered on 11 比較して 命令が下されると 0.68
analyzing are by data iment is groups 10 into average. 分析はデータimentによって平均10のグループです。 0.87
calculated. The group are average shown in Fig 0.7 for FedSVM and SVM. 計算した グループの平均は、FedSVM と SVM の図 0.7 に示されている。 0.70
The given is the the time-series then The measurements results overall value of variance 7. 与えられたのは 時系列は、測定値がばらつき7の全体値となる。 0.65
of stability of the experdivided each of stability are is above stability 安定性について 各々の安定性は安定性よりも高い 0.80
stability, and Stability in Table 安定性と 安定性 テーブルに 0.74
5. The (Var) 5. あらすじ (Var) 0.68
as Table 7: Experiment Results として テーブル 7:実験結果 0.71
of RQ1 on FedSVM/SVM rq1の FedSVM/SVMについて 0.57
Algo. ACC PRE アルゴ。 ACC 序 0.56
F1 MCC AUC F1 MCC AUC 0.83
FedSVM SVM Diff FedSVM SVM Diff 0.85
0.825 0.859 -0.034 0.825 0.859 -0.034 0.43
0.859 0.828 0.031 0.859 0.828 0.031 0.47
0.869 0.903 -0.046 0.869 0.903 -0.046 0.43
0.607 0.690 -0.083 0.607 0.690 -0.083 0.43
0.807 0.902 -0.095 0.807 0.902 -0.095 0.43
Stab. (Var) Stab (Var) 0.67
0.005 0.003 0.002 0.005 0.003 0.002 0.47
Fig. 5: FedSVM vs. フィギュア。 5: FedSVM vs. 0.71
SVM on Stability Stability SVM 安定性 安定性 0.63
difference of (Var) threshold difference (countable かつ uncountable, 複数形 differences) 0.44
value The and AUC, within are all the Therefore, is that the prediction data testing Bosch the In 5, FedSVM performs value The and AUC, in the all are, is the prediction data testing Bosch the In 5 FedSVM 0.68
ACC, F1, MCC, Precision, between SVM FedSVM and a value of respectively. ACC、F1、MCC、Precisionは、それぞれSVM FedSVMと値の間にある。 0.74
0.1, on FedSVM and SVM conclusion of RQ1 results of FedSVM and SVM on different. FedSVMとSVMのRQ1結果のFedSVMとSVMの結論が異なる。 0.59
significantly not are than slightly better SVM on two test groups, namely 1 and 7. 2つのテストグループ、すなわち1と7では、SVMがわずかに改善されている。 0.70
Similar results Table are 7. in measure Precision the shown where This scenario, HFL in shown the is central the the to features data local contribute server. 同様の結果表は、7. 測定精度 このシナリオが示すように、isの中心にあるhflは、to featuresデータローカルコントリビュートサーバである。 0.73
small, client is on of data each the amount FL because than CL be can FL’s expands better samples the the HFL IID data of in scenario. CL より FL はシナリオで HFL IID データをより良いサンプルに拡張することができますので、クライアントは、各量の FL のデータオンです。 0.86
also effect clients If effect number 効果クライアント 効果番号 0.44
for only Figure 5.1.2 だけのために 図 5.1.2 0.58
FedRF vs. RF FedRF vs. RF 0.87
results RF by experimental into 結果 RF。 実験的に 0.75
The in Table 8. are shown degenerates clients two combining of FedRF and RF can effect the compared be of premise ensuring the of the consistency kernel. 表8では、FedRFとRFを2つ組み合わせたクライアントを退化させ、一貫性カーネルの確保を前提として比較する。 0.61
When algorithm and the analyzing set ity, the test is 10 divided into groups and the to according the measurements time-series, variance calculated. アルゴリズム及び解析セットの濃度が10の場合には、測定時間列に応じてグループとそれに対応する値が算出される。 0.74
The are group each 8, Table given is in the overall are shown in Fig. 各グループ8、与えられたテーブルは、全体は図に示されています。 0.75
6. FedRF so that the under data testing stabilthe on average of stability stability 6. FedRFは、データ下テストが安定性の平均を安定させる 0.86
of results the of 結果が The of ~ 0.72
and Table 8: Experiment Results そして テーブル 8:実験結果 0.78
of RQ1 on FedRF/RF rq1の オン FedRF/RF 0.66
Algo. ACC PRE アルゴ。 ACC 序 0.56
F1 MCC AUC F1 MCC AUC 0.83
FedRF RF Diff FedRF RF ディフ 0.81
0.843 0.868 -0.025 0.843 0.868 -0.025 0.43
0.808 0.836 -0.028 0.808 0.836 -0.028 0.43
0.894 0.909 -0.015 0.894 0.909 -0.015 0.43
0.659 0.713 -0.054 0.659 0.713 -0.054 0.43
0.902 0.912 -0.010 0.902 0.912 -0.010 0.43
Stab. (Var) Stab (Var) 0.67
0.004 0.002 0.002 0.004 0.002 0.002 0.47
Fig. 6: FedRF フィギュア。 6: FedRF 0.71
vs. RF on Stability vs. RF オン 安定性 0.74
value and The AUC, 0.1. 価値と AUC、0.1。 0.75
Therefore, on the Bosch よってボッシュについて 0.62
ACC, difference of on (Var) each results prediction data are not ACC, on(Var)の各結果予測データが異なります。 0.80
Stability the testing Precision, group are FedRF of significantly テストの安定性 精度、グループ、FedRFは極めて高い。 0.75
F1, MCC, all within and RF different. F1、MCC、すべての内部とRFが異なります。 0.75
5.2 RQ2: Comparison Testing Data 5.2 RQ2: 比較テストデータ 0.80
on Random Partial Bosch ランダム部分ボッシュについて 0.50
order In FL and data, we order in FL and data, we 0.83
the compare algorithms to CL randomly 比較アルゴリズムは CL (複数形 CLs) 0.59
average in randomly select N groups 平均では ランダムに選択するN群 0.76
sampling (N=100) of サンプリング (N=100) 0.87
difference between the partial testing 違い 間 部分検査は 0.69
英語(論文から抽出)日本語訳スコア
12 Ning Ge et al. 12 ニンゲ など アル 0.54
samples. ples. サンプル ples. 0.66
The L is randomly Each starting Lは ランダムに 各開始 0.64
group contains L S point the of generated from the グループ から生成された L S 点を含む 0.81
time-continuous randomly group is interval [300, time-continuous randomly group is interval [300, 0.96
samset. 1000]. サムセット 1000]. 0.53
5.2.1 FedSVM vs. 5.2.1 FedSVM vs. 0.62
SVM of FedSVM and the prediction results of charts The line In 7. charts, all Fig. SVM fedsvmとチャートの予測結果は7. 図で示されています。 0.76
in shown groups 100 SVM on are 100 number groups. 表示されたグループで 100 SVM 上の 100 個の数グループです。 0.66
The the of is abscissa the the serial on each group. the は abscissa であり、各グループの直列である。 0.57
the measurement is ordinate the value of red line represent the dot-dash solid The blue line and respectively. 測定は、ドットダッシュ固体を表す赤線の値と、青色線を表す値とを定式化する。 0.74
SVM, and FedSVM of result prediction differrange the can the Through see and charts, we the FedSVM and of ence SVM on the prediction results of each group. 結果予測のSVMとFedSVMは、各グループの予測結果について、Some see と charts, we the FedSVM and ence SVM。 0.66
the average differvisualize We draw a histogram to each measurement SVM on between FedSVM and ence of data, groups on as 100 in shown Fig. 平均差 図1に示すように、FedSVMとデータのエンスの間に各測定SVMにヒストグラムを描画します。
訳抜け防止モード: 平均的な相違点 FedSVM とデータの ence の間に各測定 SVM にヒストグラムを描画します。 図1に示す100のグループ。
0.84
for 8. Based difference the in ACC, values results, F1 all PRE, and and values difference The 0.1. all are within in MCC validated is within are AUC mostly 0.2. 8。 acc, value results, f1 all pre, and value difference the 0.1. 検証されたmcc内のすべての値は、ほぼ0.2である。 0.66
It thus that random parSVM on of performance the FedSVM and tial Bosch testing data significantly different. したがって、FedSVM と Tial Bosch のテストデータでは、パフォーマンスのランダムな parSVM が大幅に異なる。 0.75
not is (a) ACC Values だめだ は (a)ACC値 0.68
of FedSVM and ですから FedSVMと 0.68
SVM (b) PRE Values SVM (b)事前値 0.78
of FedSVM and ですから FedSVMと 0.68
SVM 5.2.2 FedRF SVM 5.2.2 FedRF 0.70
vs. RF (c) vs. RF (c) 0.87
F1 Values of FedSVM and F1値 ですから FedSVMと 0.73
SVM of samabscissa value of line blue result of SVM ラインブルーの結果のサマバスシッサの値の 0.77
In 9. all The groups. 9. すべてのグループ。 0.75
group. each on represent line the respectively. グループだ それぞれがラインを表しています 0.69
and RF, the groups of FedRF and RF on 100 charts line The the charts, in Fig are ples shown line the of is number the is ordinate The measurements the solid red and dot-dash prediction FedRF the histogram of We draw a differences between FeRF and dRF on of 100 for measurement groups each shown data, as the results, on Based 10. RF です。 図表に表される100のチャート上のferfとrfのグループは、図表に示すpleであり、is数を示すpleである。 固体赤とドットダッシュの予測ferf 測定値のヒストグラム 図示された各データに対する100の計測グループについて、ferfとdrfの違いを、結果として、ベース10に示す。 0.59
Fig. in all AUC F1, PRE, values difference in ACC, and are all within 0.1. フィギュア。 すべての AUC F1, PRE では、ACC の値の差は0.1 以内である。 0.63
The difference values in MCC are within are within 80% groups over the MCC values and 0.2, of FedRF of performance validated thus 0.1. that It is the the and RF on random partial Bosch testing data is not significantly different. MCC の差値は MCC の値よりも80% の範囲内であり、FedRF の 0.2 は 0.1 であり、これはランダムな部分的な Bosch 試験データ上の RF と RF とが有意に異なるものではない。 0.78
(d) MCC Values of (d)MCC値 ですから 0.66
FedSVM and SVM FedSVMと SVM 0.84
5.3 RQ3: Comparison Data 5.3 RQ3: 比較データ 0.77
on Estimated Unknown Bosch 推定未知ボッシュについて 0.54
(e) AUC Values of (e) AUC値 ですから 0.67
FedSVM and SVM FedSVMと SVM 0.84
Fig. 7: FedSVM vs. フィギュア。 7: FedSVM vs. 0.71
SVM on Random Partial Data ランダム部分データ上のSVM 0.87
This experiment CL algorithms the estimated conducted この実験CLアルゴリズムは、推定された 0.73
is can maintain no unknown Bosch the method 未知のボッシュのメソッドを維持できない 0.65
following the FL and on significant difference experiment data. 以下 FLおよび重要な相違の実験データ。 0.72
This is presented in Sect. これはSectで示されています。 0.53
4. analyze whether used 4. 分析して 使用 0.76
to 0.63
英語(論文から抽出)日本語訳スコア
Failure Prediction in Production Line Based 故障予測 生産中 線ベース 0.69
on Federated オン フェデレーション 0.57
Learning: An Empirical Study 学習: 経験的な 研究 0.68
13 (a) ACC Difference 13 (a)ACC差分 0.83
(b) PRE Difference (a) ACC Values (b)事前差分 (a)ACC値 0.76
of FedRF ですから FedRF 0.69
and RF (c) F1 Difference RF (c) F1の違い 0.66
(d) MCC Difference (b) PRE Values (d)MCCの違い (b)事前値 0.80
of FedRF ですから FedRF 0.69
and RF (e) AUC Difference RF (e) AUC差 0.64
(c) F1 Values of (c) F1値 ですから 0.74
FedRF and RF 8: FedRF RF 8: 0.73
Fig. of Partial Testing Data フィギュア。 部分的なテストデータの 0.56
Difference FedSVM and 違い FedSVM そして 0.77
SVM on Random SVM オン ランダム 0.74
5.3.1 FedSVM vs. 5.3.1 FedSVM vs. 0.62
SVM first the of 9a. SVM まずは 9aだ 0.76
The a error on which あらすじ error (複数形 errors) 0.46
state sequence FedSVM and 状態シーケンス FedSVM と 0.79
indicattimed constructed We SVM, reusing prediction ing are fittheir Markov models based spectively, given are two Markov parameters ted. Indicattimed constructed We SVM, reusing prediction ing is fittheir Markov model based spectively, given is two Markov parameters ted。 0.80
The each between value 9a and in Table difference avercalculated 9c. 値9aと表差のそれぞれは9cを集計した。 0.71
The is parameters pair of in Table parameters of pair age is each between value difference It means value 0.054. ペア年齢のテーブルパラメータのパラメータペアは値差のそれぞれです。値0.054を意味します。 0.74
The maximum difference 0.096. is difference significant that no the between two Markov models, and the prediction on equally SVM are FedSVM and almost the estimated unknown Bosch data. 最大差 0.096. は、2つのマルコフモデルの間には差がなく、等しくSVM上の予測はFedSVMであり、ほぼ未知のボッシュデータである。 0.73
Therefore, performance subsequent Bosch production そのため、以後のボッシュ生産 0.69
of FedSVM and SVM in was significantly FedSVM と SVM が有意に増加しました。 0.64
between error distributed the the different. エラーが分散する間 違うわ 0.58
models exists there モデル 存在する そこ 0.71
not 5.3.2 FedRF だめだ 5.3.2 FedRF 0.58
vs. RF We the based vs. RF 私たちは 0.78
first prediction which constructed error their 最初の予測は エラーを組み立てました 0.65
timed sequence a using FedRF and RF, are タイムド FedRF と RF を用いたシーケンス a は 0.74
Markov models indicating respectively, fitted. マルコフ モデル それぞれが適合していることを示す。 0.53
The state あらすじ state 0.60
on (d) MCC Values オン (d)MCC値 0.72
of FedRF ですから FedRF 0.69
and RF (e) AUC Values RF (e) AUC値 0.65
of FedRF ですから FedRF 0.69
and RF Fig. 9: RF フィギュア。 9: 0.58
FedRF vs. RF FedRF vs. RF 0.87
on Random Partial Data ランダム部分データについて 0.66
英語(論文から抽出)日本語訳スコア
14 Ning Ge et al. 14 ニンゲ など アル 0.54
(a) ACC Difference (b) PRE Difference (a)ACC差分 (b)事前差分 0.75
(c) F1 Difference (d) MCC Difference (c) F1の違い (d)MCCの違い 0.80
Table 9: Experiment Results テーブル 9:実験結果 0.81
of RQ3 on FedSVM/SVM rq3の FedSVM/SVMについて 0.57
(a) Markov Model Parameters FedSVM (a) Markov Model Parameters FedSVM 0.85
of Prediction Error using State 予測エラーの 利用 状態 0.73
Hit Miss Mistake Hit 0.882 0.715 0.813 ミスミスを犯す hit 0.882 0.715 0.813 0.51
Miss 0.113 0.280 0.062 0.113 0.280 0.062 0.40
Mistake 0.005 0.005 0.125 0.005 0.005 0.125 0.53
(b) Markov Model Parameters SVM (b)マルコフモデルパラメータSVM 0.77
of Prediction Error using Hit Miss Mistake 予測エラーの 利用 ミスミスを犯す 0.66
Hit 0.851 0.690 0.717 hit 0.851 0.690 0.717 0.49
Miss 0.077 0.225 0.125 0.077 0.225 0.125 0.38
Mistake 0.072 0.085 0.158 0.072 0.085 0.158 0.51
(c) Comparison of Two Markov Model Parameters (c) 比較 マルコフモデルパラメータの2つ 0.82
Hit Miss Mistake Hit 0.031 0.025 0.096 ミスミスを犯す 0.031 0.025 0.096 0.53
Miss 0.036 0.055 0.063 ミス0.036 0.055 0.063 0.39
Mistake 0.067 0.080 0.033 Mistake 0.067 0.080 0.033 0.53
(e) AUC Difference Table (e) AUC差 テーブル 0.79
10: Experiment Results of RQ3 10:実験結果 rq3の 0.77
on FedRF/RF オン FedRF/RF 0.62
Fig. 10: Difference of FedRF and RF on Random Partial Testing Data フィギュア。 10: ランダム部分テストデータにおけるFedRFとRFの違い 0.67
(a) Markov Model Parameters FedRF (a)マルコフモデルパラメータFedRF 0.72
of Prediction Error using and 予測エラーの 利用 そして 0.73
10a. The two Markov 10aだ あらすじ 2つのマルコフ 0.54
value calculated between parameters are models 10a between difference 10c. 計算した値 パラメータは10c間の10aモデルです 0.77
The in Table parameters is value ference each of pair parameters value The maximum difference 0.100. is difference significant there no prediction and Markov models, the dRF are equally distributed the unknown Bosch data. in tableパラメータは、各ペアパラメータ値の最大差分0.100を参照する値であり、予測やマルコフモデルがない場合、drfは未知のボッシュデータに対して等しく分布する。 0.76
Therefore, dRF subsequent Bosch not したがって、dRFはボッシュに続く。 0.54
Table in given of each pair difaverage is 0.035. that It means two the between between error Fethe on estimated of Feperformance production was 各対のディファベージの与えられた表は0.035であり、フェーパフォーマンス生産量の推定値の誤差の中間を2つ意味している。 0.61
and in significantly the different. そして大幅に 違うわ 0.57
exists and RF 存在する そして RF 0.75
of RF 5.4 RQ4: Heterogeneity ですから RF 5.4 rq4:異質性 0.65
of Bosch Testing Data Boschテストデータです。 0.80
evaluate to used experiments the used in proposed method in 提案手法で用いられる使用済みの実験を評価する 0.89
is data the hundred experiment This testing of the RQ3. 百というデータです 実験 RQ3のこのテスト。 0.72
follow We experiment. One secutive the GT label to S0, 実験に追随する。 GTラベルをS0に切断します。 0.63
of and state samples were the the と state サンプルは... 0.67
groups randomly sample, the unqualified ランダムにサンプルするグループです 0.57
the heterogeneity RQ1of 4 to Sect. はあ? ヘテロジニティRQ1が4つある。 0.42
conof time-ordered to selected. conof 時間順に選択します。 0.56
According is sample qualified set state is sample set to サンプルに適格なセット状態はサンプルに設定される。 0.78
Hit Miss Mistake Hit 0.869 0.701 1.000 ミスミスを犯す 0.869 0.701 1.000 0.49
Miss 0.130 0.299 0.000 ミス 0.130 0.299 0.000 0.40
Mistake 0.001 0.000 0.000 0.001 0.000 0.000 0.48
(b) Markov Model Parameters RF (b)マルコフモデルパラメータRF 0.76
of Prediction Error using Hit Miss Mistake 予測エラーの 利用 ミスミスを犯す 0.66
Hit 0.888 0.735 0.900 0.888 0.735 0.900 0.45
Miss 0.109 0.263 0.100 0.109 0.263 0.100ミス 0.39
Mistake 0.003 0.002 0.000 0.003 0.002 0.000 0.53
(c) Comparison of Two Markov Model Parameters (c) 比較 マルコフモデルパラメータの2つ 0.82
Hit Miss Mistake Hit 0.019 0.034 0.100 ミスミスを犯す 0.019 0.034 0.100 0.53
Miss 0.021 0.036 0.100 0.021 0.036 0.100 0.44
Mistake 0.002 0.002 0.000 0.002 0.002 0.000 0.53
英語(論文から抽出)日本語訳スコア
Failure Prediction in Production Line Based 故障予測 生産中 線ベース 0.69
on Federated オン フェデレーション 0.57
Learning: An Empirical Study 学習: 経験的な 研究 0.68
15 sequence. For 15 シーケンス。 のために 0.64
a of steps forming group k=2 一連のステップ 形成群k=2 0.67
state S1, samples, each and are SCAN algorithm is 1-step 2-step results that state S1, sample, each and are SCAN アルゴリズムは 1 ステップ 2 ステップの結果です。 0.82
and show multiple there of sequence state step k=1 the Markov model of DBThe established, respectively. 複数のものを見せて シーケンス状態ステップ k=1 の DB の Markov モデルがそれぞれ確立されています。 0.69
used and all analyze the clustering the parameter matrices. パラメータ行列のクラスタリングを全て使用し、分析します。 0.71
If explain it clusters, can the testing data. クラスタを説明する場合、テストデータは可能か? 0.73
heterogeneity within different cluster 不均一性 違う cluster 0.70
the to is 5.4.1 Heterogeneity FedSVM はあ? へ は 5.4.1 異種fesvm 0.55
of the Testing Data ですから はあ? データテスト 0.55
used in are in Table 11. 使用 で 11番テーブルにある。 0.74
There shown results experimental results, samples the sum of so the test in the 100. than that be It can seen the cluster is less difference 2 into clusters. 実験結果では,100点以上の検定結果の総和が示され,クラスタ間の差が2点以下であることが確認できた。 0.73
The divided data is distance less than the threshold, clusters is no used of the in data the that experiment conclusion enforces heterogeneous. 分割されたデータはしきい値よりも距離が低く、クラスタは実験結果が不均一であるinデータを使用しない。 0.79
It the difference significant SVM have no manufacturing the data for problem 有意なSVMの差は問題のためのデータ製造を行なわない 0.86
The are outliers in each testing between which means FedSVM is that on of FedSVMとFedSVMは、それぞれのテストにおいてアウトプライヤです。 0.61
FedSVM and heterogeneous failure FedSVMと不均一障害 0.79
prediction. Table 11: Experiment Results 予測だ テーブル 11:実験結果 0.77
of RQ4 on FedSVM RQ4 の オン FedSVM 0.79
Step Clusters Distance threshold ステップ クラスタ 距離閾値 0.72
(◦) Contour factor Samples / cluster (◦) 輪郭因子 サンプル/クラスタ 0.74
k = 1 k = 2 k = 1 k = 2 0.85
2 2 5 8 0.456 0.421 2 2 5 8 0.456 0.421 0.73
92 89 / / 6 6 92 89 / / 6 6 0.85
According of RQ4 the Section is rq4によると セクションです。 0.60
to ment in the VFL scenario RQ1-RQ3 ufacturing obtain each VFL シナリオ RQ1-RQ3 がそれぞれを得る 0.75
experiment results the data 4.1, strong relatively means This positive. 実験結果データ4.1、比較的強い平均この肯定的な。 0.66
are FL the and scenarios, results prediction of FLはシナリオであり 結果の予測です 0.69
and heterogeneity answer and the our in VFL algorithms CL and can heterogeneity. ヘテロジニティ応答と我々のVFLアルゴリズムはCLであり、ヘテロジニティが可能である。 0.62
data statein to mancan replace データ マンを置き換える状態 0.67
similar other premise 同様のものです 前提 0.53
under thus under ~ よって 0.69
the the 5.4.2 Heterogeneity はあ? はあ? 5.4.2 異質性 0.36
of the Testing Data ですから はあ? データテスト 0.55
used in FedRF 使用 で FedRF 0.76
shown is results testing between 示されるのは 結果のテストは 0.67
It 12. in Table can are experimental The clusinto divided 2 data that be seen the than is no less the clusters ters. It 12. in Table can are experimental The clusinto split 2 data that are not not the than than the less the cluster ter。 0.77
The difference used data in the that distance threshold, which means It heterogeneous. 差は、その距離のしきい値のデータを使用しました。 0.70
is FedRF enforces of experiment the significant no that and FedRF have conclusion the heterogeneous manufacturing data the on difference failure problem of to ment in the HFL scenario RQ1-RQ3 ufacturing FedRFは、HFLシナリオRQ1-RQ3製造におけるメントへの差分故障問題について、不均一な製造データを結論付けている。 0.74
results experiment the data strong means and 結果はデータ強固な手段で実験し 0.85
and heterogeneity the and answer our HFL in CL algorithms CLアルゴリズムにおけるHFLの異種性解析と解答 0.79
4.1, relatively This positive. 4.1 比較的陽性です 0.79
are the scenarios, FL FLはシナリオです。 0.71
prediction. the Section is 予測だ セクションです。 0.61
statein to mancan mancan (複数形 mancans) 0.36
According of RQ4 the rq4によると はあ? 0.50
RF for Table RF ですから テーブル 0.73
12: Experiment Results of RQ4 12:実験結果 RQ4 の 0.84
on FedRF Step オン FedRF ステップ 0.75
Clusters Distance threshold (◦) クラスタ 距離閾値 (◦) 0.75
Contour factor Samples / cluster 輪郭因子 サンプル/クラスタ 0.69
k = 1 k = 2 k = 1 k = 2 0.85
2 2 4 8 0.524 0.473 2 2 4 8 0.524 0.473 0.73
94 78 / / 6 22 94 78 / / 6 22 0.85
obtain each similar other それぞれ取得する 同様のものです 0.63
under prediction under ~ 予測 0.74
the premise results of はあ? 前提 結果は 0.55
and data thus can heterogeneity. データと よって 異質性があります 0.63
replace 6 Threats 取り替える 6つの脅威 0.63
to Validity the threats 正当性 はあ? threats 0.61
(2017), we studies Runeto (2017年) ルーネト研究 0.36
reduce to for empirical discuss 縮小する 経験的な議論のために 0.51
Following common guidelines son the 共通ガイドラインに従えば 0.65
and threat implementation (2009); Yin and H¨ost our of validity study. 脅威の実施 (2009) yin と h は有効性の研究を行う。 0.65
Threats to internal uncontrolled with results the the main in reimplementation erated SVM and To reduce niques by following and our their to small possibility result’s 内部の制御不能な結果に対する脅威は、SVMを再実装する主な要因であり、従うことでニケを減らし、その結果を小さくすることです。
訳抜け防止モード: 再実装されたSVMのメインが結果で制御されない内部への脅威 そして、従うことでニケを減らし、その結果を小さくする
0.70
factors. their internal of of other federated 要因。 他の連邦の内部には 0.62
are validity mainly These factors creditability. 主にこれらの要因の信用性です。 0.59
validity our own algorithms random forest アルゴリズムのランダムフォレストの有効性 0.76
concerned may impact In this work, defects the and the fedalgorithms). この作品では、欠陥とフェデゴリズムに影響を及ぼす可能性がある)。 0.63
the baseline techreimplement carefully review all their papers. ベースラインのtechreimplementは、すべての論文を慎重にレビューする。 0.58
We developers several experiment by there is always a correctness. 私たちは、常に正しい実験をいくつか行います。 0.65
However, the to risk of defects, which introduces しかし、欠陥のリスクが伴う。 0.49
is potential algorithm (mainly 潜在アルゴリズムです(主に) 0.82
code ensure correctness. threat, we コード保証 正しさ 脅威、我々は 0.66
scripts this our work, we 脚本 これ 私たちの仕事は 0.77
are mainly our of settings. 主に私達の設定です。 0.75
is techniques this In impact the we mentioned in the は テクニック この例で述べたような影響の中で 0.72
In features. For to the client. 特徴がある。 クライアントのために。 0.72
the external validity is to concerned validity external Threats to can performance the whether with work, experimental other in hold still of validity main to threat external the Sect. 外部の妥当性は 外部の脅威を懸念して、外部の脅威を主な対象とする他の実験的な存在が、作業中であるか否かを判断することができる。
訳抜け防止モード: 外部の妥当性は 業務を行うか否かを遂行するための有効性のある外部脅威 有効性を保留する実験的な他のもの セクターの外部を脅かすためです
0.71
As preprocessing method. data preprocessdata revealed existing works that 1, the impact on the significant ing a on the Bosch dataset has applied PCA to have prediction result. 前処理方法として。 データ前処理データから,Boschデータセット上の重要なingaへの影響がPCAを適用して予測結果を得た場合の既存の作業が明らかになった。 0.64
in the VFL sceexample, find the principle 22 only features nario, according PCA analysis, represent features these in kept are But, each threat variance more than 95% of of experimental methodology we the to the FL algorithm order In designed. vfl sceexample において、原理22は nario のみを特徴としており、pca分析によれば、これらの特徴は保持されているが、それぞれの脅威分散は、設計中の fl アルゴリズムの順序に対する実験手法の95%以上である。
訳抜け防止モード: vfl sceexample では、原則 22 は nario のみを特徴としている。 pcaの分析によれば これらの特徴は それぞれの脅威分散は、実験手法の95%以上で設計されているflアルゴリズムの順序に当てはまる。
0.76
answer whether experconduct the CL algorithm or not, we can replace random the data, on testing the whole on iment partial data, unknown estimated the testing on data, and reis spectively. CLアルゴリズムをexperconductするかどうか、我々はランダムにデータを置き換えることができ、iment部分的なデータで全体のテスト、未知の推定データでテストし、スペクティブに修正します。 0.75
This method aimed at simulating possible used set data answer the to tends be first The construct ity of evaluation metrics. 本手法は, 使用可能なデータセットをシミュレーションし, まず, 評価指標の構成性について検討する。 0.76
To our same measurements low the AUC, stability) in 同じ測定値でAUCは低い(安定性)。 0.63
suitabilfol(ACC, precision, F1, MCC, other pre- suitabilfol(ACC, precision, F1, MCC, other pre- 0.98
in manufacturing. Therefore, complete. 製造業で。 したがって、完了。 0.75
threat to the risk, we validity reduce 脅迫する リスクは 有効性が減る 0.53
data. Another is this データだ 別 これは 0.61
failure works failure 作品 0.73
used on as 使用 オン として 0.63
英語(論文から抽出)日本語訳スコア
16 Ning Ge et al. 16 ニンゲ など アル 0.54
(2019); 2019); Carbery line in production and Grob(2019b); Khoza al. (2019); 2019);生産およびGrob(2019b);KhozaのalのCarberyライン。 0.70
et (2016); Huang Liu et Kotenko al. Huang Liu et Kotenko al. et (2016); Huang Liu et Kotenko al。 0.74
al. (2019); et (2020d); and Kumar (2016); Maurya (2016); Moldovan quality al. アル (2019); et (2020d); and Kumar (2016); Maurya (2016); Moldovanの質al。 0.54
et (2019); Zhang (2016) of which learning model, con- et(2019)、zhang(2016)、学習モデルcon- 0.60
to measure reduces the 測定すると減少します 0.67
the risk (2018, リスクは (2018, 0.74
al. et diction Hebert ler Mangal al. アル など 原題はHebert ler Mangal al。 0.58
et of the struction struction (複数形 structions) 0.50
the two is experiment. はあ? 二 実験です 0.52
according to a hypothesis validity construct the in used value is set performed the difference original ある仮説によれば 有効性構成 使用中の値が差原値となるように設定される 0.69
validity. to threat Another or δ = 0.1 δ δ = 0.2) ( old threshold the the industry, have production needs. 妥当性。 δ = 0.1 δ δ = 0.2(産業の古いしきい値、生産ニーズ)を脅かす。
訳抜け防止モード: 妥当性。 to threat another or δ = 0.1 δ δ = 0.2 (産業の古いしきい値)。 生産需要があります
0.72
We difference for between the that explain to mances the threshold. 私たちは、その説明としきい値の操作の違いを区別します。 0.63
The CL is within the alternative the is difference > δ, and difference = CL the difference < δ, where testing random partial same group. CL は is > δ であり、差 = CL は δ であり、ランダムな部分的同群をテストする。
訳抜け防止モード: CL は、 is の差 > δ の代替となる。 and difference = CL the difference < δ, where testing random partial same group 。
0.82
evaluation metrics the 0.05. 評価指標 0.05。 0.83
The p-value of vs. FedForest vs. SVM and 13 14, and Table respectively. 対FedForest対SVM、13、14のp-valueはそれぞれTableである。 0.70
alternative the all metrics, that which means the less the threshold すべての指標を置き換えます。つまり、しきい値が少ないほど 0.71
threshIn the test perforapproaches’ between and FL hypothesis H0 hypothesis H1 is – on FL the Suppose α = for FedSVM Table is p-value for alpha > accepted, is H1 between CL and FL is or δ = 0.2). threshin the test perforapproaches 7; between fl hypothesis h0 hypothesis h1 is – fl 上の仮定 α = for fedsvm table is p-value for alpha > accepted, is h1 between cl and fl is or δ = 0.2)。 0.86
difference δ δ = 0.1 差分 δ = 0.1 0.87
RForest As hypothesis RForest 仮説 0.59
shown than data 示します より データ 0.71
in ( Table 13: P-value で ( テーブル 13:P値 0.80
of FedSVM vs. ですから FedSVM vs. 0.69
SVM (α = 0.05) SVM (α = 0.05) 0.92
Metrics ACC Precision F1 MCC AUC stability Metrics ACC Precision F1 MCC AUC stability 0.96
Threshold 0.1 0.1 0.1 0.2 0.2 0.1 しきい値 0.1 0.1 0.1 0.2 0.2 0.1 0.56
Statistics -22.48877 -83.57313 -17.48523 -20.44888 -26.63278 -5.40692 Statistics -22.48877 -83.57313 -17.48523 -20.44888 -26.63278 -5.40692 0.36
p-value 5.44616e-41 6.33511e-94 2.45813e-32 1.27870e-37 3.08126e-47 0.00021 p値 5.44616e-41 6.33511e-94 2.45813e-32 1.27870e-37 3.08126e-47 0.00021 0.26
Table 14: P-value テーブル 14:P値 0.81
of FedForest ですから FedForest 0.69
vs. RForest vs. RForest 0.88
(α = 0.05) (α = 0.05) 0.88
Metrics ACC Precision F1 MCC AUC stability Metrics ACC Precision F1 MCC AUC stability 0.96
Threshold 0.1 0.1 0.1 0.2 0.2 0.1 しきい値 0.1 0.1 0.1 0.2 0.2 0.1 0.56
Statistics -34.44843 -48.40227 -75.16218 -12.90324 -16.77851 -9.83780 Statistics -34.44843 -48.40227 -75.16218 -12.90324 -16.77851 -9.83780 0.36
p-value 3.16706e-57 5.04976e-71 1.95987e-89 3.11933e-23 5.26331e-31 2.04964e-06 p値 3.16706e-57 5.04976e-71 1.95987e-89 3.11933e-23 5.26331e-31 2.04964e-06 0.23
7 Discussion Due neck when applying CL in the 7 議論 CLを装着するときは首を締めます。 0.60
to data privacy and security, we are industry. データプライバシーとセキュリティのため、私たちは業界です。 0.74
facing a bottleIn this work, we この作品のボトルに直面すると 0.59
series. line. of シリーズ。 ライン ですから 0.57
failure investigation in the to predict have adopted two FL algorithms of exour According production to performed isting SVM and RF results problem, this that did not better on Bosch data among CL algorithms Federatedwe consider choose Therefore, time that expect study. 失敗調査 予測では2つの外乱のFLアルゴリズムが採用されている SVM と RF 結果の問題を実行するために、このアルゴリズムは CL アルゴリズムの中で Bosch のデータに良くないが、フェデレーテッドは従って、研究を期待する時間を選ぶ。 0.71
We the in Federated-RF SVM and The algorithms. 私たちはFederated-RF SVMとアルゴリズムです。 0.74
CL as as perform will both the well not that results showed our intuition is wrong on the dataset. CLは実行時に、結果がデータセットの直感が間違っていることを示さないようにします。 0.65
given is whether can FL interesting An results prediction as CL. FL が面白いかどうか CL として結果を予測します。 0.65
similar same (e g , the the dataset’s are conditions on when we guidelines the are is place limited of CL? 同様に(例えば、データセットは、私たちがCLに制限されている場所のガイドラインがいつあるかの条件ですか? 0.74
As our study to industry, we from the manufacturing a literature investigation to answer existing to et studies Duan effect FL’s et is mainly (2019), and distribution amount. 産業研究として,本研究における文献調査からDuan effect FL’s et への回答までは主に (2019) と流通量である。 0.69
Two summarized as を2つまとめました。 0.40
the what Otherwise, what FL in dataset ducted tion. そうでなければ、データセットの FL は tion をダクトします。 0.63
According Kairouz al. Kairouz al によると。 0.74
data the facts are achieve If yes, size)? 事実のデータは 達成する はい、サイズ)? 0.74
use can the Bosch conhave this ques(2019); al. use can the Bosch conhave this ques(2019); al。 0.76
related to important data follows. 重要なことや データは続く 0.69
question or the is and 質問 あるいは は そして 0.68
1. When disidentically independent the data simof FL and CL are results learning tributed, the al. 1. いつ disidentically independent the data simof FL and CL is result learning tributed, the al. 0.80
Lu Chen (2020); et work ilar. Lu Chen (2020), et work ilar. (英語) 0.90
For instance, the Sozinov et (2019); al. 例えば、Sozinov et (2019) などである。 0.64
al. Olivia (2019); et et al. アル Olivia (2019): et et al。 0.54
is data indethe that when showed (2018) training the (IID), difdistributed identically pendent and within FL 3%. 2018) トレーニング(IID)、同一のペンデントとFL 3%内の分散が示されたとき、データ indethe です。 0.67
If between ference and CL the is effect FL’s is client on of amount small, each data the expands than CL better is because FL number (2019); Guha samples Bakopoulou et of IID data al. referencee と cl の間で is effect fl’s がクライアントである場合、cl よりも良く展開されるデータは fl number (2019); guha が iid data al の bakopoulou らをサンプリングしているためである。 0.77
(2019); Shaoqi et al (2019); Ickin et al et al (2020); (2019). (2019)、Shaoqi et al (2019)、Ickin et al et al (2020)、(2019)。 0.72
et Suzumura al. al. すずむらアル。 アル 0.31
distributed, FL unevenly training the 2. FLは2を不均等に訓練する。 0.75
When is Boughorsame may not achieve as effect CL et et bel al. Boughorsameが効果CL et et bel alとして達成できないとき。 0.74
(2019a); Chen al. (2019a) チェン・アル。 0.71
et (2020); Dianbo al. と(2020):Dianbo al。 0.68
Luca (2018); Hu (2020); et (2018); al. luca (2018)、hu (2020)、et (2018)、al。 0.76
et al. Feng Sozinov and M (2019); (2018a); Sheller et al. など。 Feng Sozinov and M (2019); (2018a); Sheller et al。 0.58
et al. (2019) claimed (2018). など。 (2019年) 主張(2018年)。 0.47
The review article Kairouz et al that client is small, data CL model may be better on multi-clients using data tribution of training data. Kairouzらのレビュー記事では、クライアントは小さく、データCLモデルはトレーニングデータのデータトリビューションを使用してマルチクライアントでより良いかもしれません。 0.73
the trained of uneven dis- 不均一な不一致の訓練 0.55
(2019); Xinle data the (2019) xinle data the 0.67
than the FL model in the flモデルよりも優れています 0.64
amount case the on 量 ケース はあ? オン 0.62
et of if など ですから もし 0.62
a the shown that have works some Besides, algorithms encryption Feng to related also FL is al. あ... また、Feng と関連するアルゴリズムの暗号化も FL は al です。 0.37
et Lu 2020b); (2019, Li (2020); et al. et Lu 2020b); (2019, Li (2020); et al。 0.79
(2020). (2019); Tao et al. (2020). (2019年) Tao et al。 0.77
al. (2019); R et et al. アル (2019年): R et et al。 0.51
information the increases, strength cryption of the effect FL that worse. 情報の増加、より悪い効果FLの強さの暗号化。 0.70
will data So be privacy protection data between trade-off The still is accuracy of the trained model an considered still of question open FL is related to other データのプライバシー保護 トレードオフ間のプライバシー保護 データ トレーニングされたモデルの正確性 オープンFLは、他のものと関係していると考えられる。 0.72
of al. (2020); Olivia enIf loss the decreases. アルの (2020)Olivia en損失が減少した場合。 0.54
the and inevitable. 避けられないことです 0.48
It is of effect how それは効果があります。 0.63
effect et factors. the on 効果など 要因。 次は 0.60
the はあ? 0.34
英語(論文から抽出)日本語訳スコア
Failure Prediction in Production Line Based 故障予測 生産中 線ベース 0.69
on Federated オン フェデレーション 0.57
Learning: An Empirical Study 学習: 経験的な 研究 0.68
17 8 Conclusion is on 17 8 結論 は オン 0.74
have learning for but 持ってる 学習 だけど 0.54
federated federated~ 0.74
study the this work, we 勉強して この仕事は 0.55
learning have attention industry, federated few works 学習は 注意業界。 少数の作品が 0.62
in and the Bosch in and the Bosch 0.85
the vertical dataset. 垂直のデータセットです 0.81
We There increasing in the manufacturing studied how federated learning methods perform in practice. 私たち そこでは、フェデレーション学習の手法が実際にどのように機能するかが研究されている。 0.52
of an conducted In empirical for comparing FL and CL methods problem of failconstructed ure production line. フェールコンストラクトされた尿生産ラインのFL法とCL法の問題を比較するための実証実験。
訳抜け防止モード: 経験的に行なったこと FailConstructed ure 生産ラインの FL と CL メソッドの問題を比較します。
0.74
We prediction a scenario horizontal based implemented FedSVM to compare with SVM in the HFL scenario and designed VFL with RF in the FedRF scenario. 我々は、水平にFedSVMを実装したシナリオを予測し、HFLシナリオのSVMと比較し、FedRFシナリオのVFLとRFを設計する。 0.76
to compare it process experiment for evaluatdesigned also We an which algorithms, FL of and CL effectiveness the ing studies. それを比較するには evaluatdesigned のプロセス実験 また We an アルゴリズム、FL の FL と CL の有効性 ing 研究。 0.85
Our can future results reveal be reused that respecFedSVM and FedRF can replace production tively, in Bosch by replaced line. canの今後の成果から,bosch の respecfedsvm と fedrf が,bosch をリプレースラインとして本番環境に置き換えられることが判明した。
訳抜け防止モード: 将来の結果は再利用される可能性がある。 respecFedSVMとFedRFは、Boschのプロダクションを行に置き換えることができる。
0.61
Because the be on the (2) testing dataset; FL one (1) ranon the testing dom partial the estimated unevaluation metric data. なぜなら、be on the (2) test dataset; FL one (1) runon the testing dom part the estimated unvaluation metric data。 0.76
The known Bosch 0.1. 通称はボッシュ0.1。 0.53
Moreover, algorithms CL and for testing data that the the enhances the three conclusions. さらに、アルゴリズムCLと3つの結論を高めるデータをテストするための。 0.62
our of results CL in some of protecting プロテクトの一部で CL の結果は 0.59
SVM and RF, the algorithm can SVMとRF、アルゴリズムが可能です。 0.80
(3) of differ is heterogeneous (3)相違は異質である 0.82
on each within dataset; value それぞれの中に dataset; value 0.83
prediction the CL failure 予測 CL failure 0.71
global for グローバル ですから 0.62
in reveal and FL empirical study applications data in techniques can で 公開とfl 実証研究の応用 データ・イン・テクニックは 0.60
that is a the manufacturing also investigated studies applications. それはまた研究の適用を調査する製造業です。 0.77
al. al. (2020d); Moldovan et showed network アル アル (2020d)モルドバらによるネットワーク 0.45
and (LSTM) be The そして(LSTM) という。 0.70
features FL fact above The can replace sirable way dustry. 特徴 fl fact above the can replace sirable way dustry.”【イディオム・格言的】 0.57
More FL other manufacturing et al. FL以外の製造も行う。 0.63
(2019b); Liu et considered have time-series the Long Short Term prediction improve the are et design tralized place CL within (2019b) Liu et considered has time-series the Long Short Term predict better the are et design tralized place CL within 0.87
federated LSTM model, this LSTMのフェデレーションモデルです 0.70
included Huang (2019b). 黄を含む。 (2019年)。 0.63
A future work with compare to LSTM models FL whether study can lstmモデルとの比較研究の現状と今後の展望 0.56
FL deinin Huang (2019) that can features is to cenre- FL deinin Huang (2019) を特徴とする。 0.68
Memory result when al. al の時のメモリ結果。 0.66
and context. そしてコンテキスト。 0.58
time-series This work National Acknowledgements Key Research and Development Program of China Grant No. 時系列 これ 仕事 国家承認 主要研究開発プログラム 中国はno.1を付与する。 0.66
2019YFB1703903, of China Grant No. 2019YFB1703903, of China Grant No。 0.84
the Grant of Safety-Critical Softof No. The Grant of Safety-Critical Softof No。 0.81
NJ2018014 University ware (Nanjing Astronautics), Ministry and NJ2018014大学器(南京天文学)、省、 0.73
National 61732019 the Key Laboratory national 61732019 the key laboratory 0.80
of Information Technology. 情報技術についてです 0.61
Foundation and Science 61902011, 設立・設立 61902011年。 0.43
Natural and No. Aeronautics supported 自然とノー。 航空 サポート 0.67
Industry and was by 産業 そして です で 0.68
of References Sophie ですから 参考文献 ソフィー 0.56
Aussel, Combining オーセル・コンビネーション 0.54
Nicolas tetin. communication-efficient tion in aeronautics. ニコラス・テティン 航空工学における通信効率 0.58
arXiv 2020. arXiv 2020。 0.83
Chabridon, and チャブリドン、そして 0.55
federated federated~ 0.74
and active Yohan learning 活発に ヨーハン学習 0.51
Pefor predicarXiv:2001.075 04, Pefor predicarXiv:2001.075 04 0.62
failure distributed preprint failure distributed‐preprint 0.84
A A data. data. A A データだ データだ 0.78
mobile Jarray, モバイル Jarray 0.57
Jarray, journal Jarray ジャーナル 0.58
Neethu Neethu Elhadi, ねっと ねっと エルハディ。 0.36
Elhadi, Tillman, エルハディ。 Tillman 0.50
distributed distributed~ 0.72
distributed distributed~ 0.72
Bakopoulou, Bakopoulou 0.48
and Wei Shi. そして、wei shi。 0.60
International network in 国際 ネットワークイン 0.72
large-scale manufacturing. conference 1357–1362. 大規模製造。 1357-1362年。 0.58
Athina approach preprint Athinaがプレプリントに近づく 0.54
and learning arXiv Federated hospital 2019b. arXivを学習し 2019年 病院入所。 0.75
learning of health informatics, 健康情報学を学びます 0.81
bayesian faults international (ICIT), pages 国際ベイジアン障害(ICIT)のページです。 0.63
Federated hospital 2019a. 2019年 病院入所。 0.68
Fethi Haithum Fethi Häthum 0.75
Ioannis Ch Paschalidis, predictive models records. Ioannis Ch Paschalidis、予測モデルレコード。 0.73
Balint federated classification. バリント連合の分類。 0.65
2019. Fethi Haithum 2019. Fethi Häthum 0.80
Venugopal, Michel and uncertainty-aware learning preprint arXiv ehr Venugopal, Michel, and uncertainty-aware learning preprint arXiv ehr 0.90
Venugopal, Michel and learning uncertainty-aware EHR arXiv preprint Venugopal, Michel および学習不確実性を考慮した EHR arXiv プレプリント 0.62
2018. and Adele H Marsystem learning In industrial 2018. 2018年とAdele H Marsystem Learning In Industrial 2018。 0.78
S Brisimi, Ruidi Chen, Theofanie Mela, Alex Fedfrom federated of S Brisimi, Ruidi Chen, Theofanie Mela, Alex Federated of Federated 0.80
Evita A Markopoulou. Evita A Markopoulou。 0.80
for packet arXiv:1907.13113, Boughorbel, Sabri Shabir Moosa, Makhlouf. for packet arXiv:1907.13113, Boughorbel, Sabri Shabir Moosa, Makhlouf 0.92
for arXiv:1910.12191, Boughorbel, Sabri Shabir Moosa, Makhlouf. arXiv:1910.12191, Boughorbel, Sabri Shabir Moosa, Makhlouf 0.94
for arXiv:1910.12191, Theodora Olshevsky, erated electronic 112:59–67, medical Caoimhe M Carbery, Roger Woods, shall. arXiv:1910.12191, Theodora Olshevsky, erated electronic 112:59–67, medical Caoimhe M Carbery, Roger Woods。 0.91
based for modelling 2018 IEEE technology Caoimhe M Carbery, Roger Woods, analytics shall. 2018 IEEE技術Caoimhe M Carbery、Roger Woods、分析のモデリングに基づいています。 0.81
new preprocessing data plex manufacturing stitution of Mechanical Engineering 6726, Dawei Chen, Linda Li-Chun Wang, Choong Federated based mobile edge augmented reality applications. 新しい前処理データ plex manufacturing stitution of mechanical engineering 6726, dawei chen, linda li-chun wang, choong federated based mobile edge augmented reality applications 0.77
In 2020 on Computing, Networking Conference pages (ICNC), nications IEEE, Timothy, Miller Liu Dianbo, Mandl Kenneth D. Fadl: deep learning preprint arXiv Moming Duan, Duo Liu, Xianzhang Chen, Yujuan Tan, Astraea: Jinting Ren, Self-balancing clasapplicaaccuracy sification on 37th tions. 2020 on Computing, Networking Conference Page (ICNC), nications IEEE, Timothy, Miller Liu Dianbo, Mandl Kenneth D. Fadl: Deep Learning preprint arXiv Moming Duan, Duo Liu, Xianzhang Chen, Yujuan Tan, Astraea: Jinting Ren, Self-balancing clasapplicaaccuracy sification on 37th tions。 0.86
In United Computer Design, Arab 246– 254. 統一コンピュータ設計では、アラブ246-254。 0.68
Martin Ester, Hans-Peter Kriegel, J¨org Sander, Xiaowei discovering al. Martin Ester, Hans-Peter Kriegel, J sorg Sander, Xiaowei discovereding al。 0.91
Xu, A density-based et in large clusters In Kdd, pages 96, volume Xu, A density-based et in large clusters in Kdd, pages 96, volume 0.95
Jiang Xie, BaekGyu Kim, Li Wang, Han. Jiang Xie、BaekGyu Kim、Li Wang、Han。 0.77
and Zhu computing for International and Commu2020. そしてZhu Computing for International and Commu2020。 0.74
Raheel, and Liang. Raheel そして、Liang。 0.62
Liang for learning improving learning mobile deep Conference International Dhabi, Abu 2019, pages liang for learning learning mobile deep conference international dhabi, abu 2019, pages 0.67
Sayeed and Federated-autonomous for distributed electronic health record. sayeed and federated-autonomous for distributed electronic health record(英語) 0.65
arXiv:1811.11400, arXiv:1811.11400, 0.50
and Adele H Maremphasising into insights comProceedings the of InPart Journal C: 233(19-20):6713– Adele H Maremphasising into insights comProceedings the In Part Journal C: 233(19-20):6713– 0.93
spatial databases with noise. 雑音を伴う空間データベース。 0.83
226–231, Emirates, 2019. 226–231, エミレーツ、2019年。 0.60
IEEE, Seon Hong, learning IEEE ソン・ホン 学び 0.55
Engineers, Science, Lei Qiao, federated エンジニア、科学、 Lei Qiao (複数形 Lei Qiaos) 0.59
ICCD November to systems. ICCD 11月 システムに 0.64
2019, 17-20, 2019, 17-20, 0.84
on IEEE, algorithm for IEEEで、 アルゴリズムは 0.73
of IEEE Mechanical IEEEとは? 機械 0.61
framework data of 767–773. 枠組み データです 767–773. 0.70
generate 1996. 2019. 生成 1996. 2019. 0.83
2018. of 2018. ですから 0.69
英語(論文から抽出)日本語訳スコア
18 Ning Ge et al. 18 ニンゲ など アル 0.54
for data Sean ですから データ ショーン 0.63
arXiv urban preprint arXiv 都市 プレプリント 0.71
learning federated 学習 federated~ 0.73
Fran¸coise Beaufays, フラン・シュコイズ Beaufays 0.43
Christian. ieee pages クリスチャン。 ieee page 0.73
via 2020. and Wachinger 2020年までに そしてワッチンガー 0.65
environment preprint and molearning. 環境プレプリント 学習も 0.57
Liu, edge environment Liu、エッジ環境。 0.78
Sun, Diansheng Guo, human Sun、Diansheng Guo、人間。 0.88
Conference, Arab IEEE, アラブ首長国連邦 IEEE 0.53
clasdata international 2024–2028. clasdata International 2024–2028 0.88
Liang region-learning: An for liang region-learning: an for 0.82
and Huadong Ma. そしてHuadong Ma。 0.63
based computing sensing. ベース・コンピューティング・センシング 0.60
In IEEE GLOBECOM December IEEE GLOBECOM 12月 0.72
Funing A privacy-preserving framework 4(1):10:1–10:21, Funing A Privacy-preserving framework 4(1):10:1–10:21 0.65
Feng, Can Rong, Jie Li. Feng、Can Rong、Jie Li。 0.75
Yong PMF: bility prediction IMWUT, Roy Abhijit Guha, Siddiqui Shayan, P¨olsterl Sebastian, BraintorNassir, Navab for rent: A peer-to-peer decentralized federated learning. Yong PMF: 能力予測 IMWUT, Roy Abhijit Guha, Siddiqui Shayan, P solsterl Sebastian, BraintorNassir, Navab for rent: A peer-to-peer decentralized Federationed learning。 0.90
arXiv:1905.06731, 2019. arXiv:1905.06731, 2019。 0.64
Andrew Hard, Kanishka Rao, Rajiv Mathews, Swaroop Ramaswamy, Augenstein, and Daniel Ramage. Andrew Hard, Kanishka Rao, Rajiv Mathews, Swaroop Ramaswamy, Augenstein, Daniel Ramage 0.71
Hubert Eichner, Chlo´e Kiddon, keyboard Federated prediction. Hubert Eichner、Chlo ́e Kiddon、キーボードフェデレーション予測。 0.89
mobile 2018. arXiv arXiv:1811.03604, Predicting Jeff using Hebert. mobile 2018 arXiv arXiv:1811.03604, Hebertを使用したJeff予測。 0.66
events failure rare trees manufacturing sification scale on large In interactions. イベント失敗 珍しい木製造のsificationスケール 大規模なInの相互作用。 0.74
complex with 2016 conference on data), (big big 2016. complex with 2016 conference on data” (big big 2016) を参照。 0.86
IEEE, Binxuan Hu, Yujia Gao, Federated framework Communications Global Abu United Dhabi, 2018, 1–7. IEEE, Binxuan Hu, Yujia Gao, Federated framework Communications Global Abu United Dhabi, 2018, 1-7。 0.86
pages 2018, 9-13, Shea, Huining Qian, Aditya MaLi Huang, Andrew L clustersurkar, Hao Deng, and Dianbo ing learntime ing using Journal of Xin Huang, Cecilia Zanni-Merk, and Bruno Cr´emilleux. Page 2018 9-13, Shea, Huining Qian, Aditya MaLi Huang, Andrew L clustersurkar, Hao Deng, Dianbo ing learntime ing using Journal of Xin Huang, Cecilia Zanni-Merk, Bruno Cr ́emilleux。 0.84
applicaEnhancing tion Procedia Computer Selim Ickin, Fiedler. applicaEnhancing tion Procedia Computer Selim Ickin, Fiedler。 0.78
laborative E. Fabian tors, Proceedings on QoE-based Communication Cabos, 2019, 13–18. E. Fabian tors, Proceedings on QoE-based Communication Cabos, 2019, 13–18。 0.83
ACM, 2019. 2019年、ACM。 0.87
Peter Kairouz, H Brendan McMahan, Brendan Avent, Aur´elien Bellet, Mehdi Bennis, Arjun Nitin Bhagoji, Zachary CorKeith Cummings, mode, and federated open preprint in 2019. arXiv:1912.04977, and Sibusiso Khoza ing machine learning for Peter Kairouz, H Brendan McMahan, Brendan Avent, Aur ́elien Bellet, Mehdi Bennis, Arjun Nitin Bhagoji, Zachary CorKeith Cummings, Mode, and Federationated Open Preprint in 2019. arXiv:1912.04977, Sibusiso Khoza ing Machine Learning for 0.96
Markus colusing Privacy In Pedro Casas, Florian Wamser, learning. Markus Collusing Privacy In Pedro Casas, Florian Wamser, Learning (英語) 0.88
ediand David Bustamante, Internet-QoE Workshop 4th of the and Analysis Data Management Internet-QoE@MobiCom Networks, Mexico, October pages ediand David Bustamante, Internet-QoE Workshop 4th of the and Analysis Data Management Internet-QoE@MobiCom Networks, Mexico, October page 0.96
semantics: an analysis. series 2019b. 意味論:分析。 2019年シリーズ。 0.72
159:437–446, Vandikas, and qoe modeling 159:437–446, Vandikas, and qoe model 0.76
Liu. efficiency of federated and mortality hospital medical electronic Informatics, 99:103291, Liu 連邦および死亡病院の医療電子インフォマティクスの効率、99:103291。 0.63
Comparprocess control EPIA In performance. 比較処理制御EPIA 性能。 0.70
Patient machine stay records. 患者マシンは記録を保てる 0.81
2019a. Science, Konstantinos preserving 2019年。 科学、コンスタンティノス保存 0.69
improves to predict distributed Biomedical 分散バイオメディカルの予測の改善 0.74
Bonawitz, Rachel problems Bonawitz, Rachel 問題 0.82
Graham Advances arXiv GrahamがarXivを前進 0.53
Charles, et al. Charles, et al. 0.85
learning. learning with time 学ぶこと。 時間とともに学ぶ 0.67
Emirates, 2018. エミレーツ、2018年。 0.46
predicting manufacturing Jacomine and 製造予測 ジャコミンと 0.69
to manufacturing statistical Choffnes, 製造に携わる 統計 Choffnes 0.66
Grobler. 2019, Grobler 2019, 0.67
deep Los 21, R. 深く ロス 21, R。 0.74
of C of a ですから C というと 0.67
data. 2017. データだ 2017. 0.78
pages 2020a. Nature, ページ 2020a 自然だ 0.69
embrace 108–119. 抱きしめる 108–119. 0.67
Cardoso, Ourselin, Cardoso Ourselin 0.47
S´ebastien 略称は「ebastien」。 0.19
Federated directions. フェデレーション 方向だ 0.54
Intelligence, must 2017. 知性。 2017年。 0.53
artificial review. learning: IEEE 人工的なレビュー 学習:IEEE 0.60
Sahu, Ameet Talwalkar, Sahu, Ameet Talwalkar, 0.85
future 37(3):50–60, future 37(3):50–60 0.89
and machine Proceedings, Kusiak. そして、Kusiak, Machine Proceedings。 0.81
and VirChallenges, methProcessing Signal そして virchallenges、メセプロセッシング信号、 0.66
learning 11:380–385, 2019. 11:380–385, 2019。 0.62
Smart manufacturing 544(7648):23–25, スマート製造 544(7648):23-25 0.84
Branitskiy. techbig a framework. ブランチスキー techbig - フレームワーク。 0.57
Materials To- on Artificial 2019. 材料to- 2019年製作。 0.68
Igor Saenko, Alexander and the of performance manufacturing using processing advanced material イゴール・サエンコとアレクサンダーと先端材料加工による性能製造 0.64
Conference Springer, Igor Kotenko, Improving nologies for data day: Andrew big Bo-hu Li, Bao-cun Hou, Wen-tao Yu, Xiao-bing Lu, and intelligence Chun-wei Yang. Conference Springer, Igor Kotenko, Improving nologies for data day: Andrew big Bo-hu Li, Bao-cun Hou, Wen-tao Yu, Xiao-bing Lu, and Intelligence Chun-wei Yang。 0.86
Applications in intelligent manufacturing: Frontiers of Information Technology & Electronic Engineering, 18 (1):86–96, Tian Li, Anit Kumar Smith. 理性的な製造業の適用:情報技術及び電子工学のフロンティア、18 (1):86-96、Tian Li、Anit Kumar Smith。
訳抜け防止モード: インテリジェント製造における応用 : 情報技術・電子工学のフロンティア 18 (1):86-96 , Tian Li , Anit Kumar Smith 。
0.83
ginia ods, and Magazine, Wenqi Li, Fausto Milletar`ı, Daguang Xu, Nicola Rieke, Jonny Hancox, Wentao Zhu, Maximilian Baust, Yan Jorge Cheng, and M. federated brain tuAndrew Feng. ginia ods, and Magazine, Wenqi Li, Fausto Milletar`ı, Daguang Xu, Nicola Rieke, Jonny Hancox, Wentao Zhu, Maximilian Baust, Yan Jorge Cheng, M.Federated Brain tuAndrew Feng。 0.80
Privacy-preserving segmentation. プライバシー保護セグメンテーション。 0.62
Suk, Mingxia mour Liu, Heung-Il In and Yan, Pingkun editors, Machine Lian, Chunfeng International 10th in Learning MedicalImaging with Conjunction Workshop, MLMI 2019, Held in 13, MICCAI 2019, October 2019, Shenzhen, China, Lecture Notes Proceedings, in Com11861 of 2019. Suk, Mingxia mour Liu, Heung-Il In and Yan, Pingkun Editors, Machine Lian, Chunfeng International 10th in Learning MedicalImaging with Conjunction Workshop, MLMI 2019, Held in 13, MICCAI 2019, October 2019, Shenzhen, China, Lecture Notes Proceedings, in Com11861 of 2019。 0.91
Springer, 133–141. スプリンガー 133–141。 0.62
Science, puter P. Mohanty. 科学、パターP.Mohanty。 0.74
and Sharma, Zengpeng Li, Saraju learning: Chalfederated via Preserving lenges and IEEE Consumer Electronics 2020b. Sharma、Zengpeng Li、Saraju Learning:Preserving lengesとIEEE Consumer Electronics 2020bを介してChalfederated。 0.75
Magazine, Liang, Zhijie Liu, Yang Liu, Liu, Yuxuan FederChuishi Meng, Junbo Zhang, and Yu Zheng. 雑誌、Liang、Zhijie Liu、Yang Liu、Liu、Yuxuan FederChuishi Meng、Junbo Zhang、Yu Zheng。 0.70
2020a. Transactions ated on Big Data, Niyato, Dusit Yi and Kang, Jiawen Liu, flow predicShuyu Privacy-preserving traffic learning tion: A federated Internet 2020b. 2020a Big Data, Niyato, Dusit Yi and Kang, Jiawen Liu, flow predicShuyu Privacy-preserving traffic learning tion: A Federalerated Internet 2020b. 上のトランザクション。 0.83
of Journal, Things Ge, Zhang, Yi Ning Li Liu, review literature systematic quality From perspective. Journal, Things Ge, Zhang, Yi Ning Li Liu は、文献の体系的品質をレビューする。 0.78
arXiv:2012.01973, 2020c. arXiv:2012.01973, 2020c 0.63
Zhenyu Liu, Donghao Zhang, Weiqiang Jia, Xianke Lin, serial– and Hui framework parallel quality Intelligent Manufacturing, of pages 2020d. Zhenyu Liu, Donghao Zhang, Weiqiang Jia, Xianke Lin, serial– and Hui framework parallel quality Intelligent Manufacturing, of pages 2020d 0.84
Sidi Lu, Yongtao Yao, learning hicles. Sidi Lu, Yongtao Yao, learn hicles。 0.78
man, Collaborative on connected veIn Irfan Ahmad and Swaminathan SundararaTopeditors, 男、 コネクテッドveIn Irfan AhmadとSwaminathan SundararaTopeditorsのコラボレーション 0.67
volume pages Vishal data privacy solutions. ボリュームページ vishal data privacy solutions。 0.77
9(3):8–16, Yingting 9(3):8–16,Yingting 0.85
adversarial qtd Journal adversarial qtd Journal 0.85
Guanghao federated arXiv Guanghao Federated arXiv 0.81
and Weisong study bidirectional product ワイソン研究 双方向製品 0.58
forest. JQ Zhang. 森だ JQ Zhang。 0.69
A Li. learning: preprint アリ。 学習:事前印刷 0.54
Liu. An lstm-based Liu lstmベース 0.58
USENIX Workshop USENIXワークショップ 0.75
IEEE James, IEEEのジェームス。 0.72
edges: A case edges: ケース 0.63
prediction. approach. Shi. 予測だ 近づいた シ。 0.53
on and on model オン そして モデル 0.63
IEEE 1–19, IEEE 1–19, 0.78
Hot 2nd the 熱い 第2回 はあ? 0.47
for a on ですから あ... オン 0.46
英語(論文から抽出)日本語訳スコア
Failure Prediction in Production Line Based 故障予測 生産中 線ベース 0.69
on Federated オン フェデレーション 0.57
Learning: An Empirical Study 学習: 経験的な 研究 0.68
19 H 9, et 19 H 9, など 0.79
big and July 大きい そして 7月 0.70
2016. 2019. 2016. 2019. 0.85
pages rare 2016 ページ 珍しい2016年 0.68
M. arXiv 2016. m. arxiv 2016. 0.65
Daniel Variapreprint ダニエル Variapreprint (複数形 Variapreprints) 0.43
IEEE, Moore, IEEE、Moore、 0.71
2019, Renton, WA, 2019年、レントン、wa 0.63
Bayesian failures and Yan federated ベイズ失敗 ヤン・フェデレーションは 0.56
Joachim learning. in Edge Computing, HotEdge ジョアヒムの学習。 エッジコンピューティングにおけるHotEdge 0.69
Ramage, learnarXiv Ramage, learnarXiv 0.85
Using data performance: データパフォーマンスの使用: 0.93
deep arXiv:1602.05629, 深いarXiv:1602.05629。 0.33
to A Con2029–2035. 2029-2035年。 0.64
Ionut Anghel, Tudor Cioara, series Ionut Anghel, Tudor Cioara, series 0.85
2019. Sabita Maprivate asyncomputedge Ind. 2019. Sabita Maprivate asyncomputedge Ind。 0.79
Infor- 2036–2045. Infor- 2036–2045. 0.75
Eider Communication-efficient from decentralized data. 分散データからの固有通信効率 0.66
and Ioan versus lstm prediction. そしてIoan対lstmの予測。 0.72
on 2019 Speech TechnolInternational Conference (SpeD), pages 1– and Human-Computer Dialogue IEEE, on 2019 Speech Technol International Conference (SpeD), Page 1 - and Human-Computer Dialogue IEEE, 0.98
ics 2019. USENIX Association, USA, Yunlong Lu, Xiaohong Huang, Yueyue Dai, Zhang. ics 2019。 USENIX Association, USA, Yunlong Lu, Xiaohong Huang, Yueyue Dai, Zhang 0.79
harjan, Differentially learning for mobile chronous urban informatics. ハージャン 移動時間帯の都市情報学を 学んでる 0.57
IEEE ing in Trans. IEEE ing in Trans。 0.80
16(3):2134–2143, matics, 2020. 16(3):2134-2143, matics, 2020。 0.84
Luca Buhmann Corinzia tional federated multi-task arXiv:1906.06268, and Nishant Kumar. Luca Buhmann Corinzia tional federated multi-task arXiv:1906.06268, and Nishant Kumar 0.82
Ankita Mangal enhance the bosch line production International IEEE 2016 In challenge. ankita mangalはbosch line production international ieee 2016 in challengeを強化した。 0.79
kaggle on ference Big Data (Big Data), pages IEEE, 2016. optimization for predictAbhinav Maurya. abhinav Maurya.kaggle on ference Big Data (Big Data), page IEEE, 2016 optimization for predictAbhinav Maurya。 0.84
processes. internal ing in manufacturing In IEEE International Conference on Big Data (Big Data), Brendan McMahan, al. プロセス。 製造における内部ing In IEEE International Conference on Big Data (Big Data), Brendan McMahan, al. 0.80
Seth Hampson, ing of networks preprint Dorin Moldovan, Salomie. Seth Hampson, ing of network preprint Dorin Moldovan, Salomie。 0.80
Time for manufacturing In ogy 10. 製造業のための時間ogy 10。 0.81
Douglas C Montgomery. ダグラス・c・モンゴメリー 0.59
ity Nishat Chae. of Access, Thien Duc Samuel Marchal, Markus Miettinen, Hossein Fereidooni, N Asokan, and Ahmad-Reza anomaly D¨ıot: A federated Sadeghi. ニシャット・チェ。 of Access, Thien Duc Samuel Marchal, Markus Miettinen, Hossein Fereidooni, N Asokan, Ahmad-Reza anomaly D sıot: A Federationerated Sadeghi。 0.60
deiot. 39th Internatection system for In on Distributed Computing tional Conference Systems 756–767. デリオット 39th Internatection System for In on Distributed Computing tional Conference Systems 756–767 0.64
2019. pages (ICDCS), Gkoulalas-Divanis Olivia, Choudhury Issa, Theodoros, Sylla Differential and Amar. 2019. page (ICDCS), Gkoulalas-Divanis Olivia, Choudhury Issa, Theodoros, Sylla Differential, Amar 0.83
sensitive health data. ated learning for 2019. arXiv:1910.02578, R, Dai Pfohl Andrew M, Federated and ine. 敏感な健康データだ ed learning for 2019. arXiv:1910.02578, R, Dai Pfohl Andrew M, Federated and ine 0.85
health ing electronic 2019. arXiv:1911.05861, Kenneth and AC Einat dictive analytics with Tech. health ing electronic 2019. arxiv:1911.05861, kenneth, ac einat dictive analytics with tech 0.65
report, Introduction to 2007. 報告しろ 2007年開始。 0.56
Inshil Doh, and Kijoon detection IEEE Inshil Doh と Kijoon 検出 IEEE 0.70
Salonidis Park Yoonyoung, Hsu Grace, federpreprint Salonidis Park Yoonyoung, Hsu Grace, Federpreprint 0.83
control. John Wiley & Sons, I Mowla, Nguyen H Tran, Federated attack コントロール。 John Wiley & Sons, I Mowla, Nguyen H Tran, Federated attack 0.80
jamming 2019. Nguyen, 2019年開催。 Nguyen 0.61
and differentially records. privacy-enabled arXiv 差分的な記録です プライバシー対応 arXiv 0.71
preTechnical Available: preTechnical 利用可能。 0.63
learning-based in learning‐based 0.82
data. 2013. データだ 2013. 0.78
[Online]. self-learning 2019 IEEE [オンライン] 自己学習 2019 IEEE 0.77
Katherlearnpreprint キャサレンプレプリント 0.55
extraction performance Heller private arXiv 抽出性能 Heller private arXiv 0.81
Ronen sales Intel, ronen sales intel(英語) 0.60
features processes Burns. 特徴的プロセス 燃える。 0.66
big statistical cognitive network. 大きい 統計 認知 ネットワーク 0.68
Utilizing Stephen ad-hoc 利用 スティーブン アドホック 0.62
IEEE, flying Rep., IEEE 飛行 Rep! 0.64
2019. qual- Aris, 2019. クアル Aris 0.57
Das for . . ダス ですから . . 0.69
. . a Thai . . あ... タイ 0.64
Saad, tumor Saad tumor 0.67
vehicular low-latency vehicular low‐latency 0.72
com/content com/content 0.59
Srikathyayani スリカチヤニ(Srikathyayani) 0.31
Bennis, Walid 2019. ベニス、ワリド 2019. 0.66
Diep study software ディップ ソフトウェアを勉強し 0.59
Anthony and Samarakoon, Mehdi アンソニーと Samarakoon, Mehdi 0.73
federated preprint フェデレーション・プレプリント 0.45
federated drug federated drug 0.85
Reina, Spyridon learning discovery. レイナ、スピリドン 発見を学ぶ。 0.61
study on Crimi, Keyvan, クリミ、キーバン、研究。 0.68
G. Martin, deep g・マーティン 深く 0.68
brain Spyridon Mauricio 脳のスパイリドン・マウリシオ 0.57
reporting case Empirical Transactions on Saputra, Mulya 報告ケース経験的 Saputra, Mulyaに関するトランザクション 0.76
conductfor software en14(2):131, conductfor software en14(2):131, 0.96
Communications, Dinh Hoang, 通信、Dinh Hoang 0.57
Energy Srikanteswara. エネルギーSrikanteswara。 0.71
learning electric for arXiv:1909.00907, arXiv:1909.00907で電気を学ぶ 0.65
Brandon Bakas. learning modeling without ブランドン・バカス モデリングを学ばずに 0.56
intel. and Martin H¨ost. インテル マーティン・H・オスト。 0.41
Guidelines research in engineering, 工学におけるガイドライン研究。 0.69
N Eryk Dutkiewicz, Markus Dominik Mueck, demand vehicle 2019. N Eryk Dutkiewicz、Markus Dominik Mueck、需要車2019。 0.68
EdMultisharing segBakas, Reyes, editors, Brainlesion: Glioma, In2018, Granada, Papers, Computer EdMulti Share segBakas, Reyes, Editors, Brainlesion: Glioma, In2018, Granada, Papers, Computer 0.90
http://www. http://www.com。 0.55
Per Runeson ing and gineering. Runeson ing と gineering あたり。 0.75
2009. Sumudu and M´erouane Debbah. 2009. SumuduとM ́erouane Debbah。 0.82
Distributed federated learning for ultra-reliable communications. 超信頼性通信のための分散連合学習 0.68
IEEE Yuris Nguyen, and prediction with networks. IEEE Yuris Nguyen、およびネットワークによる予測。 0.83
arXiv Chen Shaoqi, Xue Dongyu, Chuai Guohui, Yang Qiang, based and qsar Liu Qi. arXiv Chen Shaoqi, Xue Dongyu, Chuai Guohui, Yang Qiang, based and qsar Liu Qi 0.76
Fl-qsar: prototype bioRxiv, collaborative for 2020. fl-qsar:2020年のbiorxivのプロトタイプ。 0.68
Micah J. Sheller, wards, Jason institutional patient data: A feasibility mentation. Micah J. Sheller, wards, Jason Instituteal patient data: 実現可能性メント。 0.87
In Alessandro Hugo J. Kuijf, Farahani and Theo van Walsum, Multiple Sclerosis, International Workshop, juries4th with MICCAI Held in Conjunction 2018, Revised 16, September Spain, of 11383 volume Part Lecture I, 92–104. Alessandro Hugo J. Kuijf, Farahani and Theo van Walsum, multiple Sclerosis, International Workshop, juries4th with MICCAI Held in Conjunction 2018, Revised 16, September Spain, of 11383 volume Part Lecture I, 92–104。 0.89
pages Springer, Science, Micah J Sheller, G wards, Jason institutional ing patient segmentation. Springer, Science, Micah J Sheller, G wards, Jason Instituteal ing patient segmentation.com(英語) 0.83
Workshop, Sarunas Konstantin using recognition Girdzijauskas. ワークショップ, Sarunas Konstantin using recognition Girdzijauskas. 0.82
Laurence T. and federated Conference on Yang, Parallel Applications, Ubiquitous Computing & Communications, Big Data & Networking, Communications, ISPA/IUCC/BDCloud/So cialCom/SustainCom Australia, Melbourne, 2018, 11-13, IEEE, 2018. Laurence T. and Federal Conference on Yang, Parallel Applications, Ubiquitous Computing & Communications, Big Data & Networking, Communications, ISPA/IUCC/BDCloud/So cialCom/SustainCom Australia, Melbourne, 2018 11-13, IEEE, 2018 0.92
1103–1111. 1103–1111. 0.71
pages Dawn Raluca Song, Ion Stoica, Michael W Mahoney, Patterson, Jordan, D thony Joseph, Michael Joseph stein, et E for systems of view Page Dawn Raluca Song, Ion Stoica, Michael W Mahoney, Patterson, Jordan, D thony Joseph, Michael Joseph stein, et E for systems of view 0.84
EdMultishartumor International MICCAI Brainlesion 92–104. EdMultishartumor International MICCAI Brainlesion 92–104。 0.86
Vladimir Notes 2018a. ウラジーミル 2018年。 0.38
Brandon Reina, Bakas. Brandon Reina、Bakas。 0.77
Spyridon without modeling on study brain 学習脳のモデリングを伴わないスパイリドン 0.65
David Ada Randy AnJoseph M Helleral. David Ada Randy AnJoseph M Helleral。 0.82
berkeley preprint ai. バークレーのaiプレプリント。 0.48
activity Jinjun Chen International Processing with 活動 ジンジュンチェン国際処理します。 0.74
Brain BrainLes 2018, Selected in brain brainles 2018(英語) 0.57
Martin, deep data: A feasibility Martin, 深層データ: 実現可能性 0.88
Human In IEEE Distributed IEEE分散における人間 0.75
Anthony and learning In pages Sozinov, アンソニーと学習 Sozinovのページ。 0.67
Gonzalez, challenges gonzalez氏、挑戦 0.71
Social Computing ソーシャルコンピューティング 0.75
2018b. and 2018年。 そして 0.63
editors, & A arXiv 編集長とか arXiv 0.57
Computing, Sustainable コンピューティング 持続可能 0.46
Computing Traumatic コンピューティング トラウマ 0.66
December Springer, 12月 Springer 0.56
learning. Vlassov, 学ぶこと。 Vlassov 0.58
Stroke Cloud ストローク クラウド 0.68
Popa, Katz, 2018, ポパ。 Katz 2018, 0.61
and & & そして & & 0.81
英語(論文から抽出)日本語訳スコア
20 Ning Ge et al. 20 ニンゲ など アル 0.54
Qi, Yongfeng, news recpreprint Qi Yongfeng, News Repreprint 0.61
detection. Data, pages 検出 データ、ページ 0.62
Andrew Journal アンドリュー・ジャーナル 0.63
Kusiak. of Man- クサイアク。 人間- 0.59
2017. Yi Zhou, 2017. 李 周。 0.63
Natahalie Tianjian, transfer ナタハリー Tianjian, transfer 0.63
driving. autonomous 2019. 運転だ 2019年独立。 0.70
Liu, 2020. Yang, Chen Federated Liu 2020. Yang, Chen Federated 0.74
2018. 48:157–169, Chuhan, Huang Privacy-preserving arXiv 2018. 48:157–169, Chuhan, Huang Privacy-preserving arXiv 0.76
Larise Stavarache, Lucia Ludwig, Towards al. Larise Stavarache, Lucia Ludwig, towards al. 0.84
et collaborative financial arXiv:1909.12946, Qinglin Ang et collaboration financial arXiv:1909.12946, Qinglin Ang 0.78
arXiv:1712.05855, Toyotaro Barcardo, Suzumura, Guangnan Ye, Keith Houck, Ryo Kawahara, Ali Anwar, Klyashtorny, Daniel learnfederated Heiko graph crimes detection. arXiv:1712.05855, Toyotaro Barcardo, Suzumura, Guangnan Ye, Keith Houck, Ryo Kawahara, Ali Anwar, Klyashtorny, Daniel learnfederated Heiko graph crimes detection。 0.94
ing for arXiv 2019. preprint Fei Tao, Liu, and Data-driven smart manufacturing. ing for arxiv 2019. fei tao, liu, そしてデータ駆動スマートマニュファクチャリング。 0.47
Systems, ufacturing Fangzhao, Wu Tao, Wu Qi and Xie Xing. Fangzhao、ウーTao、ウーQiおよびXie Xingを使用するシステム。 0.68
Fedrec: ommendation with federated learning. fedrec: 連合学習によるommendation。 0.75
arXiv:2003.09592, Liang Xinle, Liu and Yang Qiang. arXiv:2003.09592, Liang Xinle, Liu and Yang Qiang 0.87
learning for arXiv:1910.06001, Qiang Yang Tong. arXiv:1910.06001, Qiang Yang Tongの学習 0.78
plications. ACM Transactions 10(2):1–19, and Zhang, Kejiang Yuhang Wensi Ffd: A federated Xu. 切り裂き。 ACM Transactions 10(2):1–19, and Zhang, Kejiang Yuhang Wensi Ffd: A Federalerated Xu。 0.61
Cheng-Zhong fraud card credit method for Conference on Big ternational 2019b. Cheng-Zhong 詐欺カードのクレジット方法 ビッグ ternational 2019b 会議。 0.84
Springer, Yin. Springer、Yin。 0.79
Case Robert K and methods. robert k と methods の場合。 0.78
Design Darui Zhang, Bin Xu, ures production clustering ternational 2070–2074. 設計 darui zhang, bin xu, ures production clustering ternational 2070–2074。 0.80
and Stephen T Ray Y Zhong, Xun Xu, Eberhard Klotz, in Newman. Stephen T Ray Y Zhong, Xun Xu, Eberhard Klotz, in Newman 0.69
Intelligent manufacturing the context of industry 3(5):616–630, Engineering, 4.0: 2017. 産業の文脈をインテリジェントに製造する 3(5):616–630, Engineering, 4.0: 2017 0.79
and learning: Concept Intelligent 2019a. そして学習: concept intelligent 2019a。 0.84
Li, Ye, and Li based learning In In18–32. Li、Ye、Liをベースとした学習 In18–32。 0.73
research and study publications, Sage and Jasmine Wood. 研究と研究の出版物、セージとジャスミンウッド。 0.73
failapproach with lines: A two-stage In 2016 IEEE inpages data), (big failapproach with line: A two-stage In 2016 IEEE inpages data) (Big) 0.91
applications: 2017. Predict 応用:2017年。 予測 0.70
learning. data big 学ぶこと。 データが大きい 0.73
supervised and conference on 2016. 監督と会議は2016年 0.65
IEEE, Liu Ming, reinforcement preprint arXiv IEEE りゅう Ming、強化プレプリントarXiv。 0.48
Yang, Federated machine Yang, Federated Machine 0.84
Technology Yang, (TIST), テクノロジー・ヤン (TIST) 0.60
Tianjian Chen, on 天安 チェン。 オン 0.61
Yongxin and apSystems Yongxin と apSystems 0.84
in a review. で あ... レビュー。 0.52
                                         ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。