論文の概要: Can One Safety Loop Guard Them All? Agentic Guard Rails for Federated Computing
- arxiv url: http://arxiv.org/abs/2506.20000v1
- Date: Tue, 24 Jun 2025 20:39:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-26 21:00:42.532542
- Title: Can One Safety Loop Guard Them All? Agentic Guard Rails for Federated Computing
- Title(参考訳): 安全ループガードは全部できるのか?フェデレートコンピューティングのためのエージェントガードRails
- Authors: Narasimha Raghavan Veeraragavan, Jan Franz Nygård,
- Abstract要約: 我々は,フェデレートコンピューティングのプライバシ保護のための新しいフレームワークであるGuardian-FCを提案する。
多様なプライバシー保護機構にまたがって安全対策を統一する。
本稿では,バックエンドに依存しない安全性を示す定性的なシナリオと,検証のための形式的モデル基盤を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose Guardian-FC, a novel two-layer framework for privacy preserving federated computing that unifies safety enforcement across diverse privacy preserving mechanisms, including cryptographic back-ends like fully homomorphic encryption (FHE) and multiparty computation (MPC), as well as statistical techniques such as differential privacy (DP). Guardian-FC decouples guard-rails from privacy mechanisms by executing plug-ins (modular computation units), written in a backend-neutral, domain-specific language (DSL) designed specifically for federated computing workflows and interchangeable Execution Providers (EPs), which implement DSL operations for various privacy back-ends. An Agentic-AI control plane enforces a finite-state safety loop through signed telemetry and commands, ensuring consistent risk management and auditability. The manifest-centric design supports fail-fast job admission and seamless extensibility to new privacy back-ends. We present qualitative scenarios illustrating backend-agnostic safety and a formal model foundation for verification. Finally, we outline a research agenda inviting the community to advance adaptive guard-rail tuning, multi-backend composition, DSL specification development, implementation, and compiler extensibility alongside human-override usability.
- Abstract(参考訳): 完全同相暗号 (FHE) やマルチパーティ計算 (MPC) などの暗号バックエンドや,差分プライバシー (DP) などの統計技術を含む,多様なプライバシ保護機構にまたがる安全執行を統一する,新たなプライバシ保護用2層フレームワークであるGuardian-FCを提案する。
Guardian-FCは、さまざまなプライバシバックエンド用にDSL操作を実装したフェデレーションコンピューティングワークフローと交換可能な実行プロバイダ(EP)用に設計された、バックエンド中立のドメイン固有言語(DSL)で記述されたプラグイン(モジュール計算ユニット)を実行することによって、プライバシメカニズムからガードレールを分離する。
Agentic-AIコントロールプレーンは、署名されたテレメトリとコマンドを通じて有限状態の安全ループを強制し、一貫したリスク管理と監査性を確保する。
マニフェスト中心のデザインは、フェールファストなジョブの受け入れと、新しいプライバシバックエンドへのシームレスな拡張をサポートする。
本稿では,バックエンドに依存しない安全性を示す定性的なシナリオと,検証のための形式的モデル基盤を提案する。
最後に、アダプティブガードレールチューニング、マルチバックエンド構成、DSL仕様開発、実装、およびコンパイラ拡張性を、人間によるオーバライドのユーザビリティとともに前進させるようコミュニティに呼びかける研究議題を概説する。
関連論文リスト
- Efficient Full-Stack Private Federated Deep Learning with Post-Quantum Security [17.45950557331482]
フェデレートラーニング(FL)は、データをローカルに保つことによって、ユーザのデータプライバシを保護しながら、協調的なモデルトレーニングを可能にする。
このようなアドバンテージにもかかわらず、FLはトレーニングやデプロイメント中のユーザの更新やモデルパラメータに対するプライバシ攻撃に弱いままである。
私たちは、ポストクォータムセキュアアグリゲーションを提供する新しいフレームワークであるBeskarを紹介します。
論文 参考訳(メタデータ) (2025-05-09T03:20:48Z) - The Communication-Friendly Privacy-Preserving Machine Learning against Malicious Adversaries [14.232901861974819]
プライバシー保護機械学習(PPML)は、機密情報を保護しながらセキュアなデータ分析を可能にする革新的なアプローチである。
セキュアな線形関数評価のための効率的なプロトコルを導入する。
我々は、このプロトコルを拡張して、線形層と非線形層を扱い、幅広い機械学習モデルとの互換性を確保する。
論文 参考訳(メタデータ) (2024-11-14T08:55:14Z) - Collaborative Inference over Wireless Channels with Feature Differential Privacy [57.68286389879283]
複数の無線エッジデバイス間の協調推論は、人工知能(AI)アプリケーションを大幅に強化する可能性がある。
抽出された特徴を抽出することは、プロセス中に機密性の高い個人情報が暴露されるため、重大なプライバシーリスクをもたらす。
本稿では,ネットワーク内の各エッジデバイスが抽出された機能のプライバシを保護し,それらを中央サーバに送信して推論を行う,新たなプライバシ保存協調推論機構を提案する。
論文 参考訳(メタデータ) (2024-10-25T18:11:02Z) - Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - Confidential Federated Computations [16.415880530250092]
Federated Learning and Analytics (FLA)は、デバイス上の機密データを処理するためのテクノロジプラットフォームによって広く採用されている。
FLAシステムは必ずしも差分プライバシー(DP)のような匿名化機構を必要としない
本稿では,サーバサイドの計算の秘密性を確保するために,TEEとオープンソースを活用した新しいシステムアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-04-16T17:47:27Z) - HasTEE+ : Confidential Cloud Computing and Analytics with Haskell [50.994023665559496]
信頼性コンピューティングは、Trusted Execution Environments(TEEs)と呼ばれる特別なハードウェア隔離ユニットを使用して、コテナントクラウドデプロイメントにおける機密コードとデータの保護を可能にする。
低レベルのC/C++ベースのツールチェーンを提供するTEEは、固有のメモリ安全性の脆弱性の影響を受けやすく、明示的で暗黙的な情報フローのリークを監視するための言語構造が欠如している。
私たちは、Haskellに埋め込まれたドメイン固有言語(cla)であるHasTEE+を使って、上記の問題に対処します。
論文 参考訳(メタデータ) (2024-01-17T00:56:23Z) - Libertas: Privacy-Preserving Collective Computation for Decentralised Personal Data Stores [18.91869691495181]
モジュールアーキテクチャであるLibertasを導入し、MPCとSolidのようなPSDを統合する。
我々は、全知的な視点から、個人ベースの、ユーザ中心の信頼とセキュリティへのパラダイムシフトを紹介します。
論文 参考訳(メタデータ) (2023-09-28T12:07:40Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。