論文の概要: Trust-Based Cloud Machine Learning Model Selection For Industrial IoT
and Smart City Services
- arxiv url: http://arxiv.org/abs/2008.05042v1
- Date: Tue, 11 Aug 2020 23:58:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 12:29:07.789777
- Title: Trust-Based Cloud Machine Learning Model Selection For Industrial IoT
and Smart City Services
- Title(参考訳): 産業用IoTおよびスマートシティサービスのための信頼に基づくクラウド機械学習モデル選択
- Authors: Basheer Qolomany, Ihab Mohammed, Ala Al-Fuqaha, Mohsen Guizan, Junaid
Qadir
- Abstract要約: クラウドサービスプロバイダがリソース制約のあるデバイスからビッグデータを収集し、機械学習予測モデルを構築するパラダイムを考察する。
提案手法は,MLモデルの信頼度を最大化する知的時間再構成を含む。
その結果,選択したモデルの信頼度は,ILPを用いた結果に比べて0.7%から2.53%低かった。
- 参考スコア(独自算出の注目度): 5.333802479607541
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With Machine Learning (ML) services now used in a number of mission-critical
human-facing domains, ensuring the integrity and trustworthiness of ML models
becomes all-important. In this work, we consider the paradigm where cloud
service providers collect big data from resource-constrained devices for
building ML-based prediction models that are then sent back to be run locally
on the intermittently-connected resource-constrained devices. Our proposed
solution comprises an intelligent polynomial-time heuristic that maximizes the
level of trust of ML models by selecting and switching between a subset of the
ML models from a superset of models in order to maximize the trustworthiness
while respecting the given reconfiguration budget/rate and reducing the cloud
communication overhead. We evaluate the performance of our proposed heuristic
using two case studies. First, we consider Industrial IoT (IIoT) services, and
as a proxy for this setting, we use the turbofan engine degradation simulation
dataset to predict the remaining useful life of an engine. Our results in this
setting show that the trust level of the selected models is 0.49% to 3.17% less
compared to the results obtained using Integer Linear Programming (ILP).
Second, we consider Smart Cities services, and as a proxy of this setting, we
use an experimental transportation dataset to predict the number of cars. Our
results show that the selected model's trust level is 0.7% to 2.53% less
compared to the results obtained using ILP. We also show that our proposed
heuristic achieves an optimal competitive ratio in a polynomial-time
approximation scheme for the problem.
- Abstract(参考訳): 機械学習(ML)サービスが多くのミッションクリティカルなヒューマン対面ドメインで使用されていることにより、MLモデルの完全性と信頼性がすべて重要になります。
本研究では,クラウドサービスプロバイダがリソース制約されたデバイスからビッグデータを収集し,MLベースの予測モデルを構築するパラダイムについて考察する。
提案手法は, MLモデルのサブセットをモデルスーパーセットから選択・切り替えすることで, MLモデルの信頼度を最大化し, 再構成予算・レートを尊重しつつ信頼性を最大化し, クラウド通信オーバーヘッドを低減させることにより, MLモデルの信頼度を最大化するインテリジェント多項式時間ヒューリスティックを含む。
提案するヒューリスティックの性能を2つのケーススタディで評価した。
まず、産業用IoT(IIoT)サービスについて検討し、この設定のプロキシとして、ターボファンエンジン劣化シミュレーションデータセットを使用して、エンジンの残りの有用寿命を予測する。
この設定の結果,選択したモデルの信頼度は,整数線形計画法(ILP)と比較すると0.49%から3.17%低下した。
第2に,我々はスマートシティサービスについて検討し,この設定の代理として,実験的な交通データを用いて車両数を予測する。
その結果,選択したモデルの信頼度は,ILPを用いた結果に比べて0.7%から2.53%低かった。
また,提案したヒューリスティックは多項式時間近似法において最適競合比を達成することを示す。
関連論文リスト
- Self-Play Fine-Tuning Converts Weak Language Models to Strong Language
Models [56.84735912476625]
本稿では,SPIN(Self-Play fIne-tuNing)と呼ばれるファインチューニング手法を提案する。
SPINの中心には自己再生機構があり、LLMは自身のインスタンスと対戦することでその能力を洗練させる。
このことは、自己プレイの約束に光を当て、熟練した相手を必要とせずに、LSMにおける人間レベルのパフォーマンスの達成を可能にする。
論文 参考訳(メタデータ) (2024-01-02T18:53:13Z) - Predictive Maintenance Model Based on Anomaly Detection in Induction
Motors: A Machine Learning Approach Using Real-Time IoT Data [0.0]
本研究では,ポンプ,圧縮機,ファン,その他の産業機械で使用される誘導電動機の異常検出システムについて紹介する。
我々は、計算コストの低い前処理技術と機械学習(ML)モデルの組み合わせを用いる。
論文 参考訳(メタデータ) (2023-10-15T18:43:45Z) - Tryage: Real-time, intelligent Routing of User Prompts to Large Language
Models [1.0878040851637998]
Hugging Faceエコシステムには20万以上のモデルがあり、ユーザーは多面的およびデータドメインに適したモデルを選択し、最適化する。
本稿では,言語モデルルータを利用した文脈認識型ルーティングシステムTryageを提案する。
論文 参考訳(メタデータ) (2023-08-22T17:48:24Z) - Forecasting Workload in Cloud Computing: Towards Uncertainty-Aware
Predictions and Transfer Learning [1.5749416770494704]
予測の不確かさをモデル化することは、性能に肯定的な影響を及ぼすことを示す。
モデルが異なるドメイン間での伝達学習能力に有益かどうかを検討する。
論文 参考訳(メタデータ) (2023-02-24T14:51:30Z) - Transforming Model Prediction for Tracking [109.08417327309937]
トランスフォーマーは、誘導バイアスの少ないグローバルな関係を捉え、より強力なターゲットモデルの予測を学ぶことができる。
提案したトラッカーをエンドツーエンドにトレーニングし、複数のトラッカーデータセットに関する総合的な実験を行うことで、その性能を検証する。
我々のトラッカーは3つのベンチマークで新しい技術状態を設定し、挑戦的なLaSOTデータセットで68.5%のAUCを達成した。
論文 参考訳(メタデータ) (2022-03-21T17:59:40Z) - Computational Intelligence and Deep Learning for Next-Generation
Edge-Enabled Industrial IoT [51.68933585002123]
エッジ対応産業用IoTネットワークにおける計算知能とディープラーニング(DL)の展開方法について検討する。
本稿では,新しいマルチエグジットベースフェデレーションエッジ学習(ME-FEEL)フレームワークを提案する。
特に、提案されたME-FEELは、非常に限られたリソースを持つ産業用IoTネットワークにおいて、最大32.7%の精度を達成することができる。
論文 参考訳(メタデータ) (2021-10-28T08:14:57Z) - Federated Learning with Unreliable Clients: Performance Analysis and
Mechanism Design [76.29738151117583]
Federated Learning(FL)は、分散クライアント間で効果的な機械学習モデルをトレーニングするための有望なツールとなっている。
しかし、低品質のモデルは信頼性の低いクライアントによってアグリゲータサーバにアップロードすることができ、劣化やトレーニングの崩壊につながる。
クライアントの信頼できない振る舞いをモデル化し、このようなセキュリティリスクを軽減するための防御メカニズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T08:02:27Z) - Cauchy-Schwarz Regularized Autoencoder [68.80569889599434]
変分オートエンコーダ(VAE)は、強力で広く使われている生成モデルのクラスである。
GMMに対して解析的に計算できるCauchy-Schwarz分散に基づく新しい制約対象を導入する。
本研究の目的は,密度推定,教師なしクラスタリング,半教師なし学習,顔分析における変分自動エンコーディングモデルの改善である。
論文 参考訳(メタデータ) (2021-01-06T17:36:26Z) - Particle Swarm Optimized Federated Learning For Industrial IoT and Smart
City Services [9.693848515371268]
本研究では,局所機械学習モデルに対するハイパーパラメータ設定を最適化するために,PSOに基づく手法を提案する。
2つのケーススタディを用いて提案手法の性能評価を行った。
論文 参考訳(メタデータ) (2020-09-05T16:20:47Z) - VAE-LIME: Deep Generative Model Based Approach for Local Data-Driven
Model Interpretability Applied to the Ironmaking Industry [70.10343492784465]
モデル予測だけでなく、その解釈可能性も、プロセスエンジニアに公開する必要があります。
LIMEに基づくモデルに依存しない局所的解釈可能性ソリューションが最近出現し、元の手法が改良された。
本稿では, 燃焼炉で生成する高温金属の温度を推定するデータ駆動型モデルの局所的解釈可能性に関する新しいアプローチ, VAE-LIMEを提案する。
論文 参考訳(メタデータ) (2020-07-15T07:07:07Z) - Optimizing Privacy-Preserving Outsourced Convolutional Neural Network
Predictions [23.563775490174415]
近年の研究では、クエリと結果のプライバシに焦点が当てられているが、モデルホストサーバに対してモデルプライバシを提供していない。
本稿では,アウトソース環境でのプライバシ保護型ニューラルネットワーク予測のための新しい手法を提案する。
我々は、秘密の共有とトリプルト生成を伴う2つの非凝固サーバを活用して、重厚暗号の使用を最小限にする。
論文 参考訳(メタデータ) (2020-02-22T08:47:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。