論文の概要: FARFETCH'D: A Side-Channel Analysis Framework for Privacy Applications on Confidential Virtual Machines
- arxiv url: http://arxiv.org/abs/2506.15924v1
- Date: Wed, 18 Jun 2025 23:58:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-23 19:00:04.88623
- Title: FARFETCH'D: A Side-Channel Analysis Framework for Privacy Applications on Confidential Virtual Machines
- Title(参考訳): FARFETCH'D: 機密仮想マシン上のプライバシアプリケーションのためのサイドチャネル分析フレームワーク
- Authors: Ruiyi Zhang, Albert Cheu, Adria Gascon, Daniel Moghimi, Phillipp Schoppmann, Michael Schwarz, Octavian Suciu,
- Abstract要約: 開発者は、実際のデプロイメントにおけるリークを計測し、比較する、体系的で効率的な方法が欠けている。
本稿では,AMD SEV-SNPハードウェア上でサイドチャネルトレーシングプリミティブを提供するオープンソースツールキットであるFARFETCH'Dを提案する。
FARFETCH'Dは脆弱性を指摘し、暗黙の記憶と差分プライバシーに基づく低オーバーヘッド対策を導出する。
- 参考スコア(独自算出の注目度): 26.74194304212783
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Confidential virtual machines (CVMs) based on trusted execution environments (TEEs) enable new privacy-preserving solutions. Yet, they leave side-channel leakage outside their threat model, shifting the responsibility of mitigating such attacks to developers. However, mitigations are either not generic or too slow for practical use, and developers currently lack a systematic, efficient way to measure and compare leakage across real-world deployments. In this paper, we present FARFETCH'D, an open-source toolkit that offers configurable side-channel tracing primitives on production AMD SEV-SNP hardware and couples them with statistical and machine-learning-based analysis pipelines for automated leakage estimation. We apply FARFETCH'D to three representative workloads that are deployed on CVMs to enhance user privacy - private information retrieval, private heavy hitters, and Wasm user-defined functions - and uncover previously unnoticed leaks, including a covert channel that exfiltrated data at 497 kbit/s. The results show that FARFETCH'D pinpoints vulnerabilities and guides low-overhead mitigations based on oblivious memory and differential privacy, giving practitioners a practical path to deploy CVMs with meaningful confidentiality guarantees.
- Abstract(参考訳): 信頼できる実行環境(TEE)に基づくCVM(Confidential Virtual Machine)は、新たなプライバシ保護ソリューションを実現する。
しかし、彼らは脅威モデル外にサイドチャネルの漏洩を残し、そのような攻撃を緩和する責任を開発者にシフトさせた。
しかしながら、緩和は汎用的ではなく、実用的な使用には遅すぎるため、開発者は現在、実際のデプロイメントにおけるリークを計測し比較する、体系的で効率的な方法が欠けている。
本稿では、AMD SEV-SNPハードウェア上で構成可能なサイドチャネルトレースプリミティブを提供するオープンソースツールキットであるFARFETCH'Dについて、統計的および機械学習に基づく解析パイプラインと組み合わせて、自動リーク推定を行う。
FARFETCH'DをCVMにデプロイしてユーザのプライバシを高めるために,3つの代表的なワークロード – プライベート情報検索,プライベートヘビーヒットタ,Wasmユーザ定義関数 – に適用します。
その結果、FARFETCH'Dは脆弱性を指摘し、暗黙の記憶と差分プライバシーに基づく低オーバーヘッドの軽減を導いており、実践者が意味のある機密性を保証するCVMをデプロイするための実践的な道筋が示されている。
関連論文リスト
- Secure Distributed Learning for CAVs: Defending Against Gradient Leakage with Leveled Homomorphic Encryption [0.0]
ホモモルフィック暗号化(HE)は、差分プライバシー(DP)とセキュアマルチパーティ計算(SMPC)に代わる有望な代替手段を提供する
資源制約のある環境において,フェデレートラーニング(FL)に最も適したHE方式の評価を行った。
我々は、モデル精度を維持しながら、Gradients (DLG)攻撃からのDeep Leakageを効果的に軽減するHEベースのFLパイプラインを開発した。
論文 参考訳(メタデータ) (2025-06-09T16:12:18Z) - Exploiting Inaccurate Branch History in Side-Channel Attacks [54.218160467764086]
本稿では,リソース共有と競合が広く実装されているが文書化されていない2つの特徴,バイアスフリー分岐予測と分岐履歴推定にどのように影響するかを検討する。
これらの機能は、ブランチ履歴バッファ(BHB)の更新動作を不注意に修正し、悪意のある誤定義を引き起こす新しいプリミティブを作成することができる。
2つのSpectre攻撃、すなわちSpectre-BSEとSpectre-BHSと、BiasScopeと呼ばれるクロスプライマリ制御フローサイドチャネル攻撃である。
論文 参考訳(メタデータ) (2025-06-08T19:46:43Z) - PWC-MoE: Privacy-Aware Wireless Collaborative Mixture of Experts [59.5243730853157]
クラウドサーバにホストされる大規模言語モデル(LLM)は、ローカルデバイス上の計算とストレージの負担を軽減するが、プライバシの懸念を高める。
小規模言語モデル(SLM)は、ローカルで実行されるためプライバシーが向上するが、複雑なタスクではパフォーマンスが制限される。
帯域幅制約下での計算コスト,性能,プライバシ保護のバランスをとるために,プライバシを意識したPWC-MoE(PWC-MoE)フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-13T16:27:07Z) - Lancelot: Towards Efficient and Privacy-Preserving Byzantine-Robust Federated Learning within Fully Homomorphic Encryption [10.685816010576918]
我々は,データプライバシを保ちながら悪意あるクライアント活動を保護するために,完全同型暗号化(FHE)を利用する,革新的で計算効率のよいBRFLフレームワークであるLancelotを提案する。
医用画像診断や広く使われている公開画像データセットを含む大規模なテストでは、Lancelotが既存の手法を著しく上回り、データのプライバシを維持しながら、処理速度を20倍以上に向上させています。
論文 参考訳(メタデータ) (2024-08-12T14:48:25Z) - Cabin: Confining Untrusted Programs within Confidential VMs [13.022056111810599]
機密コンピューティングは、信頼できないクラウドから機密性の高い計算を保護します。
CVMは大規模で脆弱なオペレーティングシステムカーネルを伴い、カーネルの弱点を悪用する攻撃を受けやすい。
本研究では、最新のAMD SEV-SNP技術を利用したゲストVM内での独立した実行フレームワークであるCabinを提案する。
論文 参考訳(メタデータ) (2024-07-17T06:23:28Z) - Privacy Amplification for the Gaussian Mechanism via Bounded Support [64.86780616066575]
インスタンスごとの差分プライバシー(pDP)やフィッシャー情報損失(FIL)といったデータ依存のプライバシ会計フレームワークは、固定されたトレーニングデータセット内の個人に対してきめ細かいプライバシー保証を提供する。
本稿では,データ依存会計下でのプライバシ保証を向上することを示すとともに,バウンドサポートによるガウス機構の簡単な修正を提案する。
論文 参考訳(メタデータ) (2024-03-07T21:22:07Z) - HasTEE+ : Confidential Cloud Computing and Analytics with Haskell [50.994023665559496]
信頼性コンピューティングは、Trusted Execution Environments(TEEs)と呼ばれる特別なハードウェア隔離ユニットを使用して、コテナントクラウドデプロイメントにおける機密コードとデータの保護を可能にする。
低レベルのC/C++ベースのツールチェーンを提供するTEEは、固有のメモリ安全性の脆弱性の影響を受けやすく、明示的で暗黙的な情報フローのリークを監視するための言語構造が欠如している。
私たちは、Haskellに埋め込まれたドメイン固有言語(cla)であるHasTEE+を使って、上記の問題に対処します。
論文 参考訳(メタデータ) (2024-01-17T00:56:23Z) - TeD-SPAD: Temporal Distinctiveness for Self-supervised
Privacy-preservation for video Anomaly Detection [59.04634695294402]
人間の監視のないビデオ異常検出(VAD)は複雑なコンピュータビジョンタスクである。
VADのプライバシー漏洩により、モデルは人々の個人情報に関連する不必要なバイアスを拾い上げ、増幅することができる。
本稿では,視覚的プライベート情報を自己管理的に破壊する,プライバシーに配慮したビデオ異常検出フレームワークTeD-SPADを提案する。
論文 参考訳(メタデータ) (2023-08-21T22:42:55Z) - Compressed Private Aggregation for Scalable and Robust Federated Learning over Massive Networks [34.29747990203208]
フェデレーション・ラーニング(FL)は、中央サーバーがリモートユーザーのデータを使って機械学習モデルをトレーニングできる新興パラダイムである。
FLは、ローカルデータセットのプライバシ保護、悪意のあるユーザによる攻撃に対する感受性、通信オーバーヘッドといった課題に直面している。
提案する圧縮プライベートアグリゲーション(CPA)は,大規模デプロイメントを極端に低ビットレートで同時通信することを可能にする。
論文 参考訳(メタデータ) (2023-08-01T13:36:33Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。