論文の概要: VeFIA: An Efficient Inference Auditing Framework for Vertical Federated Collaborative Software
- arxiv url: http://arxiv.org/abs/2507.02376v1
- Date: Thu, 03 Jul 2025 07:17:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-04 15:37:15.786789
- Title: VeFIA: An Efficient Inference Auditing Framework for Vertical Federated Collaborative Software
- Title(参考訳): VeFIA: 垂直協調型ソフトウェアのための効率的な推論監査フレームワーク
- Authors: Chung-ju Huang, Ziqi Zhang, Yinggui Wang, Binghui Wang, Tao Wei, Leye Wang,
- Abstract要約: VeFIAは、大規模推論中にデータパーティの推論ソフトウェアが期待通りに実行されるかどうかをタスクパーティが監査するのに役立つ。
VeFIAは、異常な推論が5.4%を超える限り、タスクパーティが99.99%の確率で実行異常を検出することを保証している。
- 参考スコア(独自算出の注目度): 26.39096711226812
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vertical Federated Learning (VFL) is a distributed AI software deployment mechanism for cross-silo collaboration without accessing participants' data. However, existing VFL work lacks a mechanism to audit the execution correctness of the inference software of the data party. To address this problem, we design a Vertical Federated Inference Auditing (VeFIA) framework. VeFIA helps the task party to audit whether the data party's inference software is executed as expected during large-scale inference without leaking the data privacy of the data party or introducing additional latency to the inference system. The core of VeFIA is that the task party can use the inference results from a framework with Trusted Execution Environments (TEE) and the coordinator to validate the correctness of the data party's computation results. VeFIA guarantees that, as long as the abnormal inference exceeds 5.4%, the task party can detect execution anomalies in the inference software with a probability of 99.99%, without incurring any additional online inference latency. VeFIA's random sampling validation achieves 100% positive predictive value, negative predictive value, and true positive rate in detecting abnormal inference. To the best of our knowledge, this is the first paper to discuss the correctness of inference software execution in VFL.
- Abstract(参考訳): Vertical Federated Learning(VFL)は、参加者のデータにアクセスせずに、クロスサイロコラボレーションのための分散AIソフトウェアデプロイメントメカニズムである。
しかしながら、既存のVFL作業では、データパーティの推論ソフトウェアの実行正しさを監査するメカニズムが欠如している。
この問題に対処するため、我々はVeFIA(Vertical Federated Inference Auditing)フレームワークを設計する。
VeFIAは、データパーティのデータプライバシをリークしたり、推論システムに追加のレイテンシを導入することなく、大規模推論中にデータパーティの推論ソフトウェアが期待通りに実行されるかどうかをタスクパーティが監査するのに役立つ。
VeFIAの中核は、タスクパーティがTrusted Execution Environments(TEE)とコーディネータを備えたフレームワークから推論結果を使用して、データパーティの計算結果の正確性を検証することである。
VeFIAは、異常な推論が5.4%を超える限り、タスクパーティが追加のオンライン推論遅延を発生させることなく、99.99%の確率で推論ソフトウェアの実行異常を検出することを保証している。
VeFIAのランダムサンプリング検証は、異常推測の検出において100%正の予測値、負の予測値、真正の確率を達成する。
我々の知る限りでは、VFLにおける推論ソフトウェア実行の正しさを論じる最初の論文である。
関連論文リスト
- COIN: Uncertainty-Guarding Selective Question Answering for Foundation Models with Provable Risk Guarantees [51.5976496056012]
COINは、統計的に有効な閾値を校正し、質問毎に1つの生成された回答をフィルタリングする不確実性保護選択フレームワークである。
COINはキャリブレーションセット上で経験的誤差率を推定し、信頼区間法を適用して真誤差率に高い確率上界を確立する。
リスク管理におけるCOINの堅牢性,許容回答を維持するための強いテストタイムパワー,キャリブレーションデータによる予測効率を実証する。
論文 参考訳(メタデータ) (2025-06-25T07:04:49Z) - Targeted Learning for Data Fairness [52.59573714151884]
データ生成プロセス自体の公平性を評価することにより、公平性推論を拡張する。
我々は、人口統計学的平等、平等機会、条件付き相互情報から推定する。
提案手法を検証するため,いくつかのシミュレーションを行い,実データに適用する。
論文 参考訳(メタデータ) (2025-02-06T18:51:28Z) - OATH: Efficient and Flexible Zero-Knowledge Proofs of End-to-End ML Fairness [13.986886689256128]
Zero-Knowledge Proofs of Fairnessは、サービスプロバイダが彼らのモデルが多様な人口動態を公平に提供できることを検証することによって、フェアネスの非準拠に対処する。
OATHはクライアント対面通信とオフライン監査フェーズを効果的にデプロイできるフレームワークである。
OATHは、ニューラルネットワークZKPoFの以前の作業よりも、ランタイムを1343倍改善し、はるかに大きなモデルにスケールアップする。
論文 参考訳(メタデータ) (2024-09-17T16:00:35Z) - Federated Prediction-Powered Inference from Decentralized Data [40.84399531998246]
予測パワー推論(PPI)は信頼性が低いにもかかわらず統計的妥当性を確保するために提案されている。
Fed-PPIフレームワークは、プライベートデータ上でローカルモデルをトレーニングし、Federated Learning (FL)を通じてそれらを集約し、PPIを使用して信頼区間を導出する。
論文 参考訳(メタデータ) (2024-09-03T09:14:18Z) - FedFDP: Fairness-Aware Federated Learning with Differential Privacy [28.58589747796768]
Federated Learning(FL)は、データサイロの課題に対処するために設計された、新興の機械学習パラダイムである。
公平性とデータプライバシに関する永続的な問題に対処するため,FedFairというフェアネスを考慮したFLアルゴリズムを提案する。
FedFairをベースとした差分プライバシーを導入し、公正性、プライバシ保護、モデルパフォーマンスのトレードオフに対処するFedFDPアルゴリズムを作成します。
論文 参考訳(メタデータ) (2024-02-25T08:35:21Z) - Federated Conformal Predictors for Distributed Uncertainty
Quantification [83.50609351513886]
コンフォーマル予測は、機械学習において厳密な不確実性定量化を提供するための一般的なパラダイムとして現れつつある。
本稿では,共形予測を連邦学習環境に拡張する。
本稿では、FL設定に適した部分交換可能性の弱い概念を提案し、それをフェデレート・コンフォーマル予測フレームワークの開発に利用する。
論文 参考訳(メタデータ) (2023-05-27T19:57:27Z) - Design and Prototyping Distributed CNN Inference Acceleration in Edge
Computing [85.74517957717363]
HALPはエッジコンピューティングにおけるエッジデバイス(ED)間のシームレスなコラボレーションを設計することで推論を加速する。
実験により、分散推論HALPはVGG-16に対して1.7倍の推論加速を達成することが示された。
分散推論HALPを用いたモデル選択は,サービスの信頼性を著しく向上させることができる。
論文 参考訳(メタデータ) (2022-11-24T19:48:30Z) - Learning Robust Output Control Barrier Functions from Safe Expert Demonstrations [50.37808220291108]
本稿では,専門家によるデモンストレーションの部分的な観察から,安全な出力フィードバック制御法を考察する。
まず,安全性を保証する手段として,ロバスト出力制御バリア関数(ROCBF)を提案する。
次に、安全なシステム動作を示す専門家による実証からROCBFを学習するための最適化問題を定式化する。
論文 参考訳(メタデータ) (2021-11-18T23:21:00Z) - Deep Fiducial Inference [4.222655023788368]
本稿では,一般化されたフィデューシャル分布の計算方法を提案する。
装着されたオートエンコーダは、未知パラメータの一般化されたフィデューシャルサンプルを生成するために使用される。
次に,デコーダに差し込むと観測データを十分に複製できないサンプルを除去し,近似フィデューシャル計算アルゴリズムを適用した。
論文 参考訳(メタデータ) (2020-07-08T17:33:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。