論文の概要: GuaranTEE: Towards Attestable and Private ML with CCA
- arxiv url: http://arxiv.org/abs/2404.00190v1
- Date: Fri, 29 Mar 2024 23:07:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-04-04 06:56:43.458249
- Title: GuaranTEE: Towards Attestable and Private ML with CCA
- Title(参考訳): GuaranTEE: CCAによるAttestableとPrivateMLを目指す
- Authors: Sandra Siby, Sina Abdollahi, Mohammad Maheri, Marios Kogias, Hamed Haddadi,
- Abstract要約: GuaranTEEは、エッジ上で証明不可能なプライベート機械学習を提供するためのフレームワークである。
CCAがプロトタイプを開発し、評価し、公開することで、MLモデルをデプロイできる可能性を評価する。
- 参考スコア(独自算出の注目度): 6.024889136631505
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine-learning (ML) models are increasingly being deployed on edge devices to provide a variety of services. However, their deployment is accompanied by challenges in model privacy and auditability. Model providers want to ensure that (i) their proprietary models are not exposed to third parties; and (ii) be able to get attestations that their genuine models are operating on edge devices in accordance with the service agreement with the user. Existing measures to address these challenges have been hindered by issues such as high overheads and limited capability (processing/secure memory) on edge devices. In this work, we propose GuaranTEE, a framework to provide attestable private machine learning on the edge. GuaranTEE uses Confidential Computing Architecture (CCA), Arm's latest architectural extension that allows for the creation and deployment of dynamic Trusted Execution Environments (TEEs) within which models can be executed. We evaluate CCA's feasibility to deploy ML models by developing, evaluating, and openly releasing a prototype. We also suggest improvements to CCA to facilitate its use in protecting the entire ML deployment pipeline on edge devices.
- Abstract(参考訳): 機械学習(ML)モデルは、さまざまなサービスを提供するために、エッジデバイスにますますデプロイされている。
しかしながら、同社のデプロイメントには、モデルのプライバシと監査性に関する課題が伴っている。
モデルプロバイダはそれを確実にしたい
(i)その独自モデルが第三者に公開されていないこと、及び
2)ユーザとのサービス契約に従って、真のモデルがエッジデバイス上で動作していることの証明を得る。
これらの課題に対処するための既存の対策は、エッジデバイス上の高いオーバーヘッドや限られた能力(処理/セキュアメモリ)といった問題によって妨げられている。
本研究では,エッジ上で検証可能なプライベート機械学習を提供するフレームワークであるGuranTEEを提案する。
GuaranTEEは、Armの最新アーキテクチャ拡張であるConfidential Computing Architecture(CCA)を使用して、モデルの実行が可能な動的信頼された実行環境(TEE)の作成とデプロイを可能にする。
CCAがプロトタイプを開発し、評価し、公開することで、MLモデルをデプロイできる可能性を評価する。
また、エッジデバイス上でのMLデプロイメントパイプライン全体を保護するために、CCAの改善も提案しています。
関連論文リスト
- CREDIT: Certified Ownership Verification of Deep Neural Networks Against Model Extraction Attacks [54.04030169323115]
我々は、モデル抽出攻撃(MEA)に対する認証された所有権検証であるCREDITを紹介する。
DNNモデル間の類似性を定量化し、実用的な検証しきい値を提案し、このしきい値に基づいてオーナシップ検証を行うための厳密な理論的保証を提供する。
我々は、さまざまなドメインやタスクにまたがるいくつかの主流データセットに対するアプローチを広範囲に評価し、最先端のパフォーマンスを実現した。
論文 参考訳(メタデータ) (2026-02-23T23:36:25Z) - CaMeLs Can Use Computers Too: System-level Security for Computer Use Agents [60.98294016925157]
AIエージェントは、悪意のあるコンテンツがエージェントの行動をハイジャックして認証情報を盗んだり、金銭的損失を引き起こすような、インジェクション攻撃に弱い。
CUAのためのシングルショットプランニングでは、信頼できるプランナーが、潜在的に悪意のあるコンテンツを観察する前に、条件付きブランチで完全な実行グラフを生成する。
このアーキテクチャ分離は命令インジェクションを効果的に防止するが、ブランチステアリング攻撃を防ぐには追加の対策が必要であることを示す。
論文 参考訳(メタデータ) (2026-01-14T23:06:35Z) - Towards Verifiably Safe Tool Use for LLM Agents [53.55621104327779]
大規模言語モデル(LLM)ベースのAIエージェントは、データソース、API、検索エンジン、コードサンドボックス、さらにはその他のエージェントなどのツールへのアクセスを可能にすることで、機能を拡張する。
LLMは意図しないツールインタラクションを起動し、機密データを漏洩したり、クリティカルレコードを上書きしたりするリスクを発生させる。
モデルベースセーフガードのようなリスクを軽減するための現在のアプローチは、エージェントの信頼性を高めるが、システムの安全性を保証することはできない。
論文 参考訳(メタデータ) (2026-01-12T21:31:38Z) - SecureInfer: Heterogeneous TEE-GPU Architecture for Privacy-Critical Tensors for Large Language Model Deployment [9.666696979829359]
SecureInferは、計算集約的な操作を信頼できないアクセラレータにオフロードするフレームワークである。
LLaMA-2モデルを用いてSecureInferのプロトタイプを実装し,性能およびセキュリティ指標間で評価する。
論文 参考訳(メタデータ) (2025-10-22T19:17:31Z) - A Systematic Survey of Model Extraction Attacks and Defenses: State-of-the-Art and Perspectives [65.3369988566853]
近年の研究では、敵が対象モデルの機能を複製できることが示されている。
モデル抽出攻撃は知的財産権、プライバシー、システムのセキュリティに脅威をもたらす。
本稿では,攻撃機構,防衛手法,計算環境に応じてMEAを分類する新しい分類法を提案する。
論文 参考訳(メタデータ) (2025-08-20T19:49:59Z) - Verifiable Unlearning on Edge [6.761197166421685]
本稿では,ゼロ知識証明,特にzk-SNARKを用いた検証フレームワークを導入し,プライバシを損なうことなく,パーソナライズされたエッジデバイスモデル上でのデータの非学習を確認する。
我々は、効率的なzk-SNARK証明生成と互換性のある未学習操作を容易にするために、明示的に設計されたアルゴリズムを開発した。
本研究は,個人化による性能改善の最小限の劣化を伴う検証不可能な未学習を実証し,本フレームワークの有効性と有効性を確認した。
論文 参考訳(メタデータ) (2025-06-24T22:24:47Z) - MISLEADER: Defending against Model Extraction with Ensembles of Distilled Models [56.09354775405601]
モデル抽出攻撃は、クエリアクセスを通じてブラックボックスモデルの機能を複製することを目的としている。
既存のディフェンスでは、アタッカークエリにはオフ・オブ・ディストリビューション(OOD)サンプルがあることを前提としており、不審な入力を検出し破壊することができる。
OOD仮定に依存しない新しい防衛戦略であるMISLEADERを提案する。
論文 参考訳(メタデータ) (2025-06-03T01:37:09Z) - An Early Experience with Confidential Computing Architecture for On-Device Model Protection [6.024889136631505]
Arm Confidential Computing Architecture (CCA)は、オンデバイス機械学習(ML)のための新しいArm拡張である
本稿では,CCA内でのデプロイモデルの性能とプライバシのトレードオフを評価する。
本フレームワークは,相手の成功率の8.3%削減により,会員推測攻撃に対するモデル保護に成功している。
論文 参考訳(メタデータ) (2025-04-11T13:21:33Z) - THEMIS: Towards Practical Intellectual Property Protection for Post-Deployment On-Device Deep Learning Models [36.02405283730231]
オンデバイスディープラーニング(DL)はモバイルアプリで急速に採用され、オフラインモデル推論とクラウドベースのアプローチよりもユーザのプライバシ保護のメリットを提供する。
必然的に、ユーザーデバイスにモデルを保存し、新しい脆弱性、特にモデルステアリング攻撃と知的財産権侵害を導入する。
本稿では,デバイス上でのDLモデルの読み取り専用制約を緩和するツールであるTheMISを提案する。
論文 参考訳(メタデータ) (2025-03-31T05:58:57Z) - TEESlice: Protecting Sensitive Neural Network Models in Trusted Execution Environments When Attackers have Pre-Trained Models [12.253529209143197]
TSDPは、TEE内のプライバシーに敏感な重みを保護し、GPUに不感な重みをオフロードする手法である。
トレーニング戦略の前に新たなパーティションを導入し,プライバシに敏感な重みをモデルの他のコンポーネントと効果的に分離する。
提案手法は, 計算コストを10倍に削減し, 完全なモデル保護を実現できることを示す。
論文 参考訳(メタデータ) (2024-11-15T04:52:11Z) - A Novel Access Control and Privacy-Enhancing Approach for Models in Edge Computing [0.26107298043931193]
本稿では,エッジコンピューティング環境に適した新しいモデルアクセス制御手法を提案する。
この方法は、画像スタイルをライセンス機構として利用し、モデルの運用フレームワークにスタイル認識を組み込む。
エッジモデルに入力データを制限することにより、攻撃者がモデルへの不正アクセスを阻止するだけでなく、端末デバイス上のデータのプライバシーも強化する。
論文 参考訳(メタデータ) (2024-11-06T11:37:30Z) - A Practical and Privacy-Preserving Framework for Real-World Large Language Model Services [8.309281698695381]
大規模言語モデル(LLM)は、テキスト理解と生成において例外的な能力を示した。
個人はしばしばLLM企業が提供するオンラインAI・アズ・ア・サービス(AI)に依存している。
このビジネスモデルは、サービスプロバイダがユーザのトレースパターンや行動データを悪用する可能性があるため、重大なプライバシー上のリスクをもたらす。
本稿では,サービスプロバイダが要求を提出した個人にリンクさせることを防止し,ユーザの匿名性を確保するための実用的かつプライバシ保護フレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-03T07:40:28Z) - CoreGuard: Safeguarding Foundational Capabilities of LLMs Against Model Stealing in Edge Deployment [43.53211005936295]
CoreGuardは、エッジデバイス上でのモデル盗難に対する、計算と通信効率のよいモデル保護アプローチである。
私たちは、CoreGuardがブラックボックスのセキュリティ保証と同じセキュリティ保護を無視可能なオーバーヘッドで達成していることを示します。
論文 参考訳(メタデータ) (2024-10-16T08:14:24Z) - Enhancing Physical Layer Communication Security through Generative AI with Mixture of Experts [80.0638227807621]
生成人工知能(GAI)モデルは、従来のAI手法よりも優れていることを示した。
ゲート機構による予測に複数の専門家モデルを使用するMoEは、可能なソリューションを提案する。
論文 参考訳(メタデータ) (2024-05-07T11:13:17Z) - ModelShield: Adaptive and Robust Watermark against Model Extraction Attack [58.46326901858431]
大規模言語モデル(LLM)は、さまざまな機械学習タスクにまたがる汎用インテリジェンスを示す。
敵はモデル抽出攻撃を利用して モデル生成で符号化された モデルインテリジェンスを盗むことができる
ウォーターマーキング技術は、モデル生成コンテンツにユニークな識別子を埋め込むことによって、このような攻撃を防御する有望なソリューションを提供する。
論文 参考訳(メタデータ) (2024-05-03T06:41:48Z) - Detectors for Safe and Reliable LLMs: Implementations, Uses, and Limitations [76.19419888353586]
大規模言語モデル(LLM)は、不誠実なアウトプットからバイアスや有害な世代に至るまで、さまざまなリスクを受けやすい。
我々は,様々な害のラベルを提供するコンパクトで容易に構築できる分類モデルである,検出器のライブラリを作成し,展開する取り組みについて述べる。
論文 参考訳(メタデータ) (2024-03-09T21:07:16Z) - HasTEE+ : Confidential Cloud Computing and Analytics with Haskell [50.994023665559496]
信頼性コンピューティングは、Trusted Execution Environments(TEEs)と呼ばれる特別なハードウェア隔離ユニットを使用して、コテナントクラウドデプロイメントにおける機密コードとデータの保護を可能にする。
低レベルのC/C++ベースのツールチェーンを提供するTEEは、固有のメモリ安全性の脆弱性の影響を受けやすく、明示的で暗黙的な情報フローのリークを監視するための言語構造が欠如している。
私たちは、Haskellに埋め込まれたドメイン固有言語(cla)であるHasTEE+を使って、上記の問題に対処します。
論文 参考訳(メタデータ) (2024-01-17T00:56:23Z) - SODA: Protecting Proprietary Information in On-Device Machine Learning
Models [5.352699766206808]
本稿では,エンド・ツー・エンドのフレームワークであるSODAを提案し,エッジデバイス上でのデプロイとサービスを行う。
以上の結果から,サービス性能,レイテンシ,ストレージへの影響を最小限に抑えつつ,50クエリ未満で89%の精度で,敵対的使用量を検出できることが示唆された。
論文 参考訳(メタデータ) (2023-12-22T20:04:36Z) - Self-Destructing Models: Increasing the Costs of Harmful Dual Uses of
Foundation Models [103.71308117592963]
本稿ではメタラーニングと逆学習の技法を活用した自己破壊モデルの学習アルゴリズムを提案する。
小規模な実験では、MLACは、BERTスタイルのモデルが性別識別を行うために再目的化されることをほとんど防ぐことができることを示す。
論文 参考訳(メタデータ) (2022-11-27T21:43:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。