論文の概要: Federated Inference: Toward Privacy-Preserving Collaborative and Incentivized Model Serving
- arxiv url: http://arxiv.org/abs/2603.02214v2
- Date: Wed, 04 Mar 2026 09:07:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-09 01:20:08.07446
- Title: Federated Inference: Toward Privacy-Preserving Collaborative and Incentivized Model Serving
- Title(参考訳): フェデレーション推論 - プライバシ保護のための協調型インセンティブモデルの実現に向けて
- Authors: Jungwon Seo, Ferhat Ozgur Catak, Chunming Rong, Jaeyeon Jang,
- Abstract要約: フェデレーション推論(FI)は、独立して訓練された個人所有のモデルが、データやモデルパラメータを共有することなく、推論時にどのように協力するかを研究する。
本稿では、FIをフェデレーション学習を補完する、異なる協調パラダイムとして位置づける。
我々は,その実現可能性を管理する基本的な要件として,推論時のプライバシ保護と,協調による有意義なパフォーマンス向上の2つを特定した。
- 参考スコア(独自算出の注目度): 11.957307199198928
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Inference (FI) studies how independently trained and privately owned models can collaborate at inference time without sharing data or model parameters. While recent work has explored secure and distributed inference from disparate perspectives, a unified abstraction and system-level understanding of FI remain lacking. This paper positions FI as a distinct collaborative paradigm, complementary to federated learning, and identifies two fundamental requirements that govern its feasibility: inference-time privacy preservation and meaningful performance gains through collaboration. We formalize FI as a protected collaborative computation, analyze its core design dimensions, and examine the structural trade-offs that arise when privacy constraints, non-IID data, and limited observability are jointly imposed at inference time. Through a concrete instantiation and empirical analysis, we highlight recurring friction points in privacy-preserving inference, ensemble-based collaboration, and incentive alignment. Our findings suggest that FI exhibits system-level behaviors that cannot be directly inherited from training-time federation or classical ensemble methods. Overall, this work provides a unifying perspective on FI and outlines open challenges that must be addressed to enable practical, scalable, and privacy-preserving collaborative inference systems.
- Abstract(参考訳): フェデレーション推論(FI)は、独立して訓練された個人所有のモデルが、データやモデルパラメータを共有することなく、推論時にどのように協力するかを研究する。
近年の研究では、異なる観点からのセキュアで分散的な推論が検討されているが、統合された抽象化とFIのシステムレベルの理解はいまだに欠如している。
本稿では、FIを協調パラダイムとして位置づけ、フェデレーション学習を補完し、その実現可能性を管理する2つの基本的な要件、すなわち推論時プライバシー保護と協調による有意義なパフォーマンス向上を特定する。
我々は、FIを保護された協調計算として形式化し、その中核となる設計次元を分析し、プライバシ制約、非IIDデータ、限定可観測性が推論時に共同で課される場合に生じる構造的トレードオフを調べる。
具体的なインスタンス化と経験分析を通じて、プライバシー保護推論、アンサンブルに基づく協調、インセンティブアライメントにおける繰り返し発生する摩擦点を強調した。
FIは訓練時間フェデレーションや古典的なアンサンブル法から直接受け継がれないシステムレベルの行動を示すことが示唆された。
全体として、この作業はFIに関する統一的な視点を提供し、実用的な、スケーラブルで、プライバシに保護された協調推論システムを実現するために対処しなければならないオープンな課題の概要を提供する。
関連論文リスト
- Communication-Efficient and Privacy-Adaptable Mechanism -- a Federated Learning Scheme with Convergence Analysis [4.726777092009554]
フェデレートされた学習は、複数のパーティが、自身の基盤となるデータを共有することなく、共同で学習モデルをトレーニングすることを可能にする。
最近の研究は、CEPAM(Communication-Efficient and Privacy-Adaptable Mechanism)と呼ばれる新しいアプローチを導入している。
CEPAMのプライバシー保証と収束特性を理論的に解析する。
論文 参考訳(メタデータ) (2026-01-15T18:55:00Z) - Ten Challenging Problems in Federated Foundation Models [55.343738234307544]
フェデレーション・ファンデーション・モデル(Federated Foundation Models、FedFM)は、フェデレーション・モデルの一般的な能力とフェデレーション・ラーニングのプライバシー保護能力を融合させる分散学習パラダイムである。
本稿では,FedFMに固有の10の課題について,基礎理論,プライベートデータの利用,継続学習,非学習,非IIDおよびグラフデータ,双方向知識伝達,インセンティブ機構設計,ゲーム機構設計,モデル透かし,効率を包括的に要約する。
論文 参考訳(メタデータ) (2025-02-14T04:01:15Z) - A Multivocal Literature Review on Privacy and Fairness in Federated Learning [1.6124402884077915]
フェデレーション学習は、データ共有の必要性を排除することによって、AIアプリケーションに革命をもたらす手段を提供する。
最近の研究では、プライバシと公平性の間に固有の緊張が示されています。
プライバシーと公正性の関係は無視され、現実世界のアプリケーションにとって重大なリスクをもたらしている、と我々は主張する。
論文 参考訳(メタデータ) (2024-08-16T11:15:52Z) - A Unified Learn-to-Distort-Data Framework for Privacy-Utility Trade-off in Trustworthy Federated Learning [5.622065847054885]
プライバシとユーティリティの均衡をナビゲートするための原則的アプローチを提供するTextitLearn-to-Distort-Dataフレームワークを提案する。
データ歪みに基づく様々なプライバシー保護機構への我々のフレームワークの適用性を実証する。
論文 参考訳(メタデータ) (2024-07-05T08:15:09Z) - Exploring Federated Unlearning: Review, Comparison, and Insights [101.64910079905566]
フェデレーション・アンラーニングは、フェデレーション・システムで訓練されたモデルからデータを選択的に除去することを可能にする。
本稿では,既存のフェデレーション・アンラーニング手法について検討し,アルゴリズムの効率,モデル精度への影響,プライバシ保護の有効性について検討する。
フェデレートされたアンラーニング手法を評価するための統一ベンチマークであるOpenFederatedUnlearningフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-30T01:34:33Z) - Modeling Multiple Views via Implicitly Preserving Global Consistency and
Local Complementarity [61.05259660910437]
複数の視点から表現を学習するために,グローバルな一貫性と相補性ネットワーク(CoCoNet)を提案する。
グローバルな段階では、重要な知識はビュー間で暗黙的に共有され、そのような知識を捕捉するためのエンコーダの強化は、学習された表現の識別性を向上させることができる。
最後に、局所的な段階において、横断的な識別的知識を結合する相補的要素を提案し、また、エンコーダが視点的識別性だけでなく、横断的な相補的情報も学習するように誘導する。
論文 参考訳(メタデータ) (2022-09-16T09:24:00Z) - "You Can't Fix What You Can't Measure": Privately Measuring Demographic
Performance Disparities in Federated Learning [78.70083858195906]
グループメンバーシップのプライバシを保護しつつ,グループ間でのパフォーマンスの差異を測定するための,差分プライベートなメカニズムを提案する。
我々の結果は、以前の研究の示唆に反して、プライバシ保護は必ずしもフェデレーションモデルの性能格差の特定と矛盾しているわけではないことを示している。
論文 参考訳(メタデータ) (2022-06-24T09:46:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。