論文の概要: mini-ELSA: using Machine Learning to improve space efficiency in Edge
Lightweight Searchable Attribute-based encryption for Industry 4.0
- arxiv url: http://arxiv.org/abs/2209.10896v1
- Date: Thu, 22 Sep 2022 10:08:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-23 14:02:06.876031
- Title: mini-ELSA: using Machine Learning to improve space efficiency in Edge
Lightweight Searchable Attribute-based encryption for Industry 4.0
- Title(参考訳): mini-ELSA: 産業用Edge Lightweight Searchable Attributeベースの暗号化における、機械学習による空間効率の向上
- Authors: Jawhara Aljabri, Anna Lito Michala, Jeremy Singer, Ioannis Vourganas
- Abstract要約: 以前の研究で、業界 4.0 をサポートするために新しいエッジ軽量検索属性ベースの暗号化(ELSA)法が提案された。
我々は,エッジでの実行に適した機械学習(ML)メソッドを統合することにより,ルックアップテーブルのサイズを最小化し,データレコードを要約することにより,ELSAを改善することを目指している。
その結果,ストレージ要件を21%削減し,実行時間を1.27倍改善した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In previous work a novel Edge Lightweight Searchable Attribute-based
encryption (ELSA) method was proposed to support Industry 4.0 and specifically
Industrial Internet of Things applications. In this paper, we aim to improve
ELSA by minimising the lookup table size and summarising the data records by
integrating Machine Learning (ML) methods suitable for execution at the edge.
This integration will eliminate records of unnecessary data by evaluating added
value to further processing. Thus, resulting in the minimization of both the
lookup table size, the cloud storage and the network traffic taking full
advantage of the edge architecture benefits. We demonstrate our mini-ELSA
expanded method on a well-known power plant dataset. Our results demonstrate a
reduction of storage requirements by 21% while improving execution time by
1.27x.
- Abstract(参考訳): 以前の研究で、産業用4.0、特に産業用IoTアプリケーションをサポートするために、Edge Lightweight Searchable Attributeベースの暗号化(ELSA)法が提案された。
本稿では,エッジでの実行に適した機械学習(ML)メソッドを統合することにより,ルックアップテーブルのサイズを最小化し,データレコードを要約することにより,ELSAの改善を目指す。
この統合は、さらなる処理に付加価値を評価することによって、不要なデータのレコードを削除する。
これにより、エッジアーキテクチャのメリットを最大限に活用して、ルックアップテーブルサイズ、クラウドストレージ、ネットワークトラフィックの両方を最小化することが可能になります。
我々は、よく知られた発電所のデータセット上で、ミニELSA拡張手法を実証した。
その結果,ストレージ要件を21%削減し,実行時間を1.27倍改善した。
関連論文リスト
- Reinforcement Learning for Long-Horizon Interactive LLM Agents [56.9860859585028]
インタラクティブデジタルエージェント(IDA)は、ステートフルなデジタル環境のAPIを利用して、ユーザの要求に応じてタスクを実行する。
対象環境で直接IDAを訓練する強化学習(RL)手法を提案する。
我々は、近似ポリシー最適化のデータおよびメモリ効率の亜種である LOOP を導出する。
論文 参考訳(メタデータ) (2025-02-03T18:35:42Z) - Tackling the Dynamicity in a Production LLM Serving System with SOTA Optimizations via Hybrid Prefill/Decode/Verify Scheduling on Efficient Meta-kernels [12.77187564450236]
本稿では,多機能なAscendネイティブ,エンドツーエンド生産型大規模言語モデル(LLM)サービスシステムであるXY-Serveを紹介する。
中心となる考え方は、計算をきめ細かいメタプリミティブに分解することで、ワークロードの変動を円滑にする抽象化メカニズムである。
GEMMでは,動的形状変化に適応する仮想パディング方式を導入し,高効率な固定タイルサイズGEMMプリミティブを用いた。
論文 参考訳(メタデータ) (2024-12-24T02:27:44Z) - Adaptive Pruning for Large Language Models with Structural Importance Awareness [66.2690963378878]
大規模言語モデル(LLM)は言語理解と生成能力を大幅に改善した。
LLMは、高い計算およびストレージリソース要求のため、リソース制約のあるエッジデバイスにデプロイするのは難しい。
モデル性能を維持しつつ,計算コストとメモリコストを大幅に削減する構造的適応型プルーニング(SAAP)を提案する。
論文 参考訳(メタデータ) (2024-12-19T18:08:04Z) - A Novel Compact LLM Framework for Local, High-Privacy EHR Data Applications [3.5839042822277585]
本稿では,厳密なプライバシ要件を持つ環境下での局所的な展開を目的とした,コンパクトなLarge Language Models (LLMs) フレームワークを提案する。
臨床ノートにおける重要な情報をフィルタリングし強調するために,正規表現などの情報抽出手法を用いた新しい前処理手法を導入する。
我々のフレームワークは、プライベートおよびパブリック両方のデータセット(MIMIC-IV)上でゼロショットおよび少数ショット学習パラダイムを用いて評価される。
論文 参考訳(メタデータ) (2024-12-03T22:06:55Z) - ScalingNote: Scaling up Retrievers with Large Language Models for Real-World Dense Retrieval [72.2676180980573]
大規模言語モデル(LLM)は、高密度検索のスケールアップに活用できる優れた性能を示した。
オンラインクエリ待ち時間を維持しながら、検索にLLMのスケーリング可能性を利用する2段階のScalingNoteを提案する。
両段階のスケーリング手法はエンド・ツー・エンドのモデルより優れており,産業シナリオにおけるLLMを用いた高密度検索のスケーリング法則を検証している。
論文 参考訳(メタデータ) (2024-11-24T09:27:43Z) - AvaTaR: Optimizing LLM Agents for Tool Usage via Contrastive Reasoning [93.96463520716759]
大規模言語モデル(LLM)エージェントは、精度と幻覚を高めるために外部ツールと知識を活用する際、印象的な能力を示した。
本稿では、LLMエージェントを最適化して提供されたツールを効果的に活用し、与えられたタスクのパフォーマンスを向上させる新しい自動化フレームワークであるAvaTaRを紹介する。
論文 参考訳(メタデータ) (2024-06-17T04:20:02Z) - Robust Implementation of Retrieval-Augmented Generation on Edge-based Computing-in-Memory Architectures [26.183960625493807]
エッジデバイスにデプロイされる大規模言語モデル(LLM)は、微調整とパラメータの特定の部分の更新を通じて学習する。
Retrieval-Augmented Generation (RAG) は資源効率の高いLLM学習手法である。
本稿では,コンピューティング・イン・メモリ(CiM)アーキテクチャを用いてRAGを高速化する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-07T22:31:50Z) - LLM2LLM: Boosting LLMs with Novel Iterative Data Enhancement [79.31084387589968]
事前訓練された大規模言語モデル(LLM)は、現在、自然言語処理タスクの大部分を解決するための最先端技術である。
LLM2LLMは、教師のLLMを使って小さなシードデータセットを強化するデータ拡張戦略である。
GSM8Kデータセットでは最大24.2%、CaseHOLDでは32.6%、SNIPSでは32.0%、TRECでは52.6%、SST-2では39.8%の改善が達成された。
論文 参考訳(メタデータ) (2024-03-22T08:57:07Z) - Curated LLM: Synergy of LLMs and Data Curation for tabular augmentation in low-data regimes [57.62036621319563]
本稿では,Large Language Models (LLMs) の知識を低データ構造におけるデータ拡張に活用したCLLMを紹介する。
従来のジェネレータと比較して,低データ方式におけるCLLMの優れた性能を示す。
論文 参考訳(メタデータ) (2023-12-19T12:34:46Z) - ezDPS: An Efficient and Zero-Knowledge Machine Learning Inference
Pipeline [2.0813318162800707]
我々は,新しい効率的かつゼロ知識の機械学習推論スキームであるezDPSを提案する。
ezDPSはzkMLパイプラインで、データを複数のステージで高精度に処理する。
ezDPSは,全測定値における一般的な回路ベース手法よりも1~3桁効率が高いことを示す。
論文 参考訳(メタデータ) (2022-12-11T06:47:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。