論文の概要: Towards Industrial Private AI: A two-tier framework for data and model
security
- arxiv url: http://arxiv.org/abs/2107.12806v1
- Date: Tue, 27 Jul 2021 13:28:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-28 14:35:11.381098
- Title: Towards Industrial Private AI: A two-tier framework for data and model
security
- Title(参考訳): 産業用プライベートAIを目指して - データとモデルセキュリティのための2層フレームワーク
- Authors: Sunder Ali Khowaja, Kapal Dev, Nawab Muhammad Faseeh Qureshi, Parus
Khuwaja, Luca Foschini
- Abstract要約: IIoT環境でデータとモデルパラメータの2層セキュリティを提供するプライベート(FLEP)AIフレームワークを提案する。
実験結果から,提案手法は実行時間の増加を犠牲にして,より優れた暗号化品質を実現することが示された。
- 参考スコア(独自算出の注目度): 7.773212143837498
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: With the advances in 5G and IoT devices, the industries are vastly adopting
artificial intelligence (AI) techniques for improving classification and
prediction-based services. However, the use of AI also raises concerns
regarding data privacy and security that can be misused or leaked. Private AI
was recently coined to address the data security issue by combining AI with
encryption techniques but existing studies have shown that model inversion
attacks can be used to reverse engineer the images from model parameters. In
this regard, we propose a federated learning and encryption-based private
(FLEP) AI framework that provides two-tier security for data and model
parameters in an IIoT environment. We proposed a three-layer encryption method
for data security and provided a hypothetical method to secure the model
parameters. Experimental results show that the proposed method achieves better
encryption quality at the expense of slightly increased execution time. We also
highlighted several open issues and challenges regarding the FLEP AI
framework's realization.
- Abstract(参考訳): 5GやIoTデバイスの進歩に伴い、業界は分類と予測ベースのサービスを改善するために人工知能(AI)技術を大いに採用している。
しかし、AIの使用はまた、データプライバシとセキュリティに関する懸念を提起し、誤用または漏洩する可能性がある。
プライベートaiは、aiと暗号化技術を組み合わせたデータセキュリティ問題に対処するために最近作られたが、既存の研究から、モデルパラメータからイメージをリバースエンジニアリングするためにモデルインバージョンアタックが使用できることが示されている。
そこで本研究では,IIoT環境におけるデータとモデルパラメータの2層セキュリティを提供する,FLEP(Federated Learning and encryption-based private)AIフレームワークを提案する。
データセキュリティのための3層暗号化手法を提案し、モデルパラメータをセキュアにするための仮説的手法を提供した。
実験の結果,提案手法は実行時間の増加を犠牲にして,より優れた暗号品質が得られることがわかった。
FLEP AIフレームワークの実現に関して、いくつかのオープンな問題と課題も強調した。
関連論文リスト
- Generative AI for Secure and Privacy-Preserving Mobile Crowdsensing [74.58071278710896]
生成AIは、学術分野と産業分野の両方から多くの注目を集めている。
セキュアでプライバシ保護のモバイルクラウドセンシング(SPPMCS)は、データ収集/取得に広く応用されている。
論文 参考訳(メタデータ) (2024-05-17T04:00:58Z) - Auditable Homomorphic-based Decentralized Collaborative AI with
Attribute-based Differential Privacy [4.555256739812733]
我々は、Auditable Homomorphic-based Decentralized Collaborative AI(AerisAI)という、新しい分散協調型AIフレームワークを提案する。
提案したAerisAIは、暗号化されたパラメータを直接ブロックチェーンベースのスマートコントラクトに集約することで、信頼できるサードパーティの必要性を解消します。
また、モデル性能に対する差分プライバシーの負の影響を排除するための新しい概念を提案する。
論文 参考訳(メタデータ) (2024-02-28T14:51:18Z) - You Still See Me: How Data Protection Supports the Architecture of AI Surveillance [5.989015605760986]
我々は,AIシステムの開発におけるプライバシ保護技術が,規制の許容度を前提として,監視インフラをいかに支援できるかを示す。
本研究では,プライバシ保護技術を評価するための技術と政策戦略を提案する。
論文 参考訳(メタデータ) (2024-02-09T18:39:29Z) - Performance-lossless Black-box Model Watermarking [69.22653003059031]
本稿では,モデル知的財産権を保護するために,ブランチバックドアベースのモデル透かしプロトコルを提案する。
さらに,プロトコルに対する潜在的な脅威を分析し,言語モデルに対するセキュアで実現可能な透かしインスタンスを提供する。
論文 参考訳(メタデータ) (2023-12-11T16:14:04Z) - Reconciling AI Performance and Data Reconstruction Resilience for
Medical Imaging [52.578054703818125]
人工知能(AI)モデルは、トレーニングデータの情報漏洩に対して脆弱であり、非常に敏感である。
差別化プライバシ(DP)は、定量的なプライバシー予算を設定することで、これらの感受性を回避することを目的としている。
非常に大きなプライバシ予算を使用することで、リコンストラクション攻撃は不可能であり、パフォーマンスの低下は無視可能であることを示す。
論文 参考訳(メタデータ) (2023-12-05T12:21:30Z) - Robust Representation Learning for Privacy-Preserving Machine Learning:
A Multi-Objective Autoencoder Approach [0.9831489366502302]
プライバシー保護機械学習(ppML)のための堅牢な表現学習フレームワークを提案する。
提案手法は,多目的方式でオートエンコーダを訓練することを中心に,符号化部からの潜伏と学習の特徴を符号化形式として結合する。
提案したフレームワークでは、元のフォームを公開せずに、データを共有し、サードパーティツールを使用することができます。
論文 参考訳(メタデータ) (2023-09-08T16:41:25Z) - Robust Semi-supervised Federated Learning for Images Automatic
Recognition in Internet of Drones [57.468730437381076]
プライバシー保護型UAV画像認識のための半教師付きフェデレートラーニング(SSFL)フレームワークを提案する。
異なるカメラモジュールを使用したUAVによって収集されたローカルデータの数、特徴、分布には大きな違いがある。
本稿では,クライアントがトレーニングに参加する頻度,すなわちFedFreqアグリゲーションルールに基づくアグリゲーションルールを提案する。
論文 参考訳(メタデータ) (2022-01-03T16:49:33Z) - Data-Driven and SE-assisted AI Model Signal-Awareness Enhancement and
Introspection [61.571331422347875]
モデルの信号認識性を高めるためのデータ駆動型手法を提案する。
コード複雑性のSE概念とカリキュラム学習のAIテクニックを組み合わせる。
モデル信号認識における最大4.8倍の改善を実現している。
論文 参考訳(メタデータ) (2021-11-10T17:58:18Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。