論文の概要: Trust-Based Cloud Machine Learning Model Selection For Industrial IoT
and Smart City Services
- arxiv url: http://arxiv.org/abs/2008.05042v1
- Date: Tue, 11 Aug 2020 23:58:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 12:29:07.789777
- Title: Trust-Based Cloud Machine Learning Model Selection For Industrial IoT
and Smart City Services
- Title(参考訳): 産業用IoTおよびスマートシティサービスのための信頼に基づくクラウド機械学習モデル選択
- Authors: Basheer Qolomany, Ihab Mohammed, Ala Al-Fuqaha, Mohsen Guizan, Junaid
Qadir
- Abstract要約: クラウドサービスプロバイダがリソース制約のあるデバイスからビッグデータを収集し、機械学習予測モデルを構築するパラダイムを考察する。
提案手法は,MLモデルの信頼度を最大化する知的時間再構成を含む。
その結果,選択したモデルの信頼度は,ILPを用いた結果に比べて0.7%から2.53%低かった。
- 参考スコア(独自算出の注目度): 5.333802479607541
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With Machine Learning (ML) services now used in a number of mission-critical
human-facing domains, ensuring the integrity and trustworthiness of ML models
becomes all-important. In this work, we consider the paradigm where cloud
service providers collect big data from resource-constrained devices for
building ML-based prediction models that are then sent back to be run locally
on the intermittently-connected resource-constrained devices. Our proposed
solution comprises an intelligent polynomial-time heuristic that maximizes the
level of trust of ML models by selecting and switching between a subset of the
ML models from a superset of models in order to maximize the trustworthiness
while respecting the given reconfiguration budget/rate and reducing the cloud
communication overhead. We evaluate the performance of our proposed heuristic
using two case studies. First, we consider Industrial IoT (IIoT) services, and
as a proxy for this setting, we use the turbofan engine degradation simulation
dataset to predict the remaining useful life of an engine. Our results in this
setting show that the trust level of the selected models is 0.49% to 3.17% less
compared to the results obtained using Integer Linear Programming (ILP).
Second, we consider Smart Cities services, and as a proxy of this setting, we
use an experimental transportation dataset to predict the number of cars. Our
results show that the selected model's trust level is 0.7% to 2.53% less
compared to the results obtained using ILP. We also show that our proposed
heuristic achieves an optimal competitive ratio in a polynomial-time
approximation scheme for the problem.
- Abstract(参考訳): 機械学習(ML)サービスが多くのミッションクリティカルなヒューマン対面ドメインで使用されていることにより、MLモデルの完全性と信頼性がすべて重要になります。
本研究では,クラウドサービスプロバイダがリソース制約されたデバイスからビッグデータを収集し,MLベースの予測モデルを構築するパラダイムについて考察する。
提案手法は, MLモデルのサブセットをモデルスーパーセットから選択・切り替えすることで, MLモデルの信頼度を最大化し, 再構成予算・レートを尊重しつつ信頼性を最大化し, クラウド通信オーバーヘッドを低減させることにより, MLモデルの信頼度を最大化するインテリジェント多項式時間ヒューリスティックを含む。
提案するヒューリスティックの性能を2つのケーススタディで評価した。
まず、産業用IoT(IIoT)サービスについて検討し、この設定のプロキシとして、ターボファンエンジン劣化シミュレーションデータセットを使用して、エンジンの残りの有用寿命を予測する。
この設定の結果,選択したモデルの信頼度は,整数線形計画法(ILP)と比較すると0.49%から3.17%低下した。
第2に,我々はスマートシティサービスについて検討し,この設定の代理として,実験的な交通データを用いて車両数を予測する。
その結果,選択したモデルの信頼度は,ILPを用いた結果に比べて0.7%から2.53%低かった。
また,提案したヒューリスティックは多項式時間近似法において最適競合比を達成することを示す。
関連論文リスト
- Customer Lifetime Value Prediction with Uncertainty Estimation Using Monte Carlo Dropout [3.187236205541292]
本稿では,モンテカルロ・ドロップアウト(MCD)フレームワークを組み込むことにより,純粋ニューラルネットワークモデルのアーキテクチャを強化する新しいアプローチを提案する。
世界で最もダウンロード数の多いモバイルゲームのデータを用いて,提案手法のベンチマークを行った。
提案手法は,ニューラルネットワークモデル間での性能評価を行うための余分な次元として信頼性指標を提供する。
論文 参考訳(メタデータ) (2024-11-24T18:14:44Z) - Read-ME: Refactorizing LLMs as Router-Decoupled Mixture of Experts with System Co-Design [59.00758127310582]
本稿では、事前学習された高密度LCMをより小さなMoEモデルに変換する新しいフレームワークRead-MEを提案する。
当社のアプローチでは,専門家の抽出にアクティベーション空間を用いる。
Read-MEは、同様のスケールの他の人気のあるオープンソース高密度モデルよりも優れています。
論文 参考訳(メタデータ) (2024-10-24T19:48:51Z) - Dual-Model Distillation for Efficient Action Classification with Hybrid Edge-Cloud Solution [1.8029479474051309]
我々は、より大規模で正確なクラウドベースモデルに必要に応じて遅延しながら、より小さなモデルのローカル処理効率を活用するハイブリッドエッジクラウドソリューションを設計する。
具体的には、エッジモデルの出力が不確かである場合に予測可能な軽量スイッチャーモデルをトレーニングするための、新しい教師なしデータ生成手法であるDual-Model Distillation(DMD)を提案する。
動作分類タスクの実験結果から,我々のフレームワークは計算オーバーヘッドを少なくするだけでなく,大規模モデルのみを使用する場合と比較して精度も向上することが示された。
論文 参考訳(メタデータ) (2024-10-16T02:06:27Z) - Self-Play Fine-Tuning Converts Weak Language Models to Strong Language Models [52.98743860365194]
本稿では,SPIN(Self-Play fIne-tuNing)と呼ばれるファインチューニング手法を提案する。
SPINの中心には自己再生機構があり、LLMは自身のインスタンスと対戦することでその能力を洗練させる。
このことは、自己プレイの約束に光を当て、熟練した相手を必要とせずに、LSMにおける人間レベルのパフォーマンスの達成を可能にする。
論文 参考訳(メタデータ) (2024-01-02T18:53:13Z) - Predictive Maintenance Model Based on Anomaly Detection in Induction
Motors: A Machine Learning Approach Using Real-Time IoT Data [0.0]
本研究では,ポンプ,圧縮機,ファン,その他の産業機械で使用される誘導電動機の異常検出システムについて紹介する。
我々は、計算コストの低い前処理技術と機械学習(ML)モデルの組み合わせを用いる。
論文 参考訳(メタデータ) (2023-10-15T18:43:45Z) - Tryage: Real-time, intelligent Routing of User Prompts to Large Language
Models [1.0878040851637998]
Hugging Faceエコシステムには20万以上のモデルがあり、ユーザーは多面的およびデータドメインに適したモデルを選択し、最適化する。
本稿では,言語モデルルータを利用した文脈認識型ルーティングシステムTryageを提案する。
論文 参考訳(メタデータ) (2023-08-22T17:48:24Z) - Computational Intelligence and Deep Learning for Next-Generation
Edge-Enabled Industrial IoT [51.68933585002123]
エッジ対応産業用IoTネットワークにおける計算知能とディープラーニング(DL)の展開方法について検討する。
本稿では,新しいマルチエグジットベースフェデレーションエッジ学習(ME-FEEL)フレームワークを提案する。
特に、提案されたME-FEELは、非常に限られたリソースを持つ産業用IoTネットワークにおいて、最大32.7%の精度を達成することができる。
論文 参考訳(メタデータ) (2021-10-28T08:14:57Z) - Federated Learning with Unreliable Clients: Performance Analysis and
Mechanism Design [76.29738151117583]
Federated Learning(FL)は、分散クライアント間で効果的な機械学習モデルをトレーニングするための有望なツールとなっている。
しかし、低品質のモデルは信頼性の低いクライアントによってアグリゲータサーバにアップロードすることができ、劣化やトレーニングの崩壊につながる。
クライアントの信頼できない振る舞いをモデル化し、このようなセキュリティリスクを軽減するための防御メカニズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T08:02:27Z) - Cauchy-Schwarz Regularized Autoencoder [68.80569889599434]
変分オートエンコーダ(VAE)は、強力で広く使われている生成モデルのクラスである。
GMMに対して解析的に計算できるCauchy-Schwarz分散に基づく新しい制約対象を導入する。
本研究の目的は,密度推定,教師なしクラスタリング,半教師なし学習,顔分析における変分自動エンコーディングモデルの改善である。
論文 参考訳(メタデータ) (2021-01-06T17:36:26Z) - Particle Swarm Optimized Federated Learning For Industrial IoT and Smart
City Services [9.693848515371268]
本研究では,局所機械学習モデルに対するハイパーパラメータ設定を最適化するために,PSOに基づく手法を提案する。
2つのケーススタディを用いて提案手法の性能評価を行った。
論文 参考訳(メタデータ) (2020-09-05T16:20:47Z) - VAE-LIME: Deep Generative Model Based Approach for Local Data-Driven
Model Interpretability Applied to the Ironmaking Industry [70.10343492784465]
モデル予測だけでなく、その解釈可能性も、プロセスエンジニアに公開する必要があります。
LIMEに基づくモデルに依存しない局所的解釈可能性ソリューションが最近出現し、元の手法が改良された。
本稿では, 燃焼炉で生成する高温金属の温度を推定するデータ駆動型モデルの局所的解釈可能性に関する新しいアプローチ, VAE-LIMEを提案する。
論文 参考訳(メタデータ) (2020-07-15T07:07:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。