論文の概要: Power Mechanism: Private Tabular Representation Release for Model Agnostic Consumption
- arxiv url: http://arxiv.org/abs/2510.05581v1
- Date: Tue, 07 Oct 2025 04:55:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-08 17:57:08.104974
- Title: Power Mechanism: Private Tabular Representation Release for Model Agnostic Consumption
- Title(参考訳): パワーメカニズム:モデル非依存的消費のためのプライベートタブラリ表現リリース
- Authors: Praneeth Vepakomma, Kaustubh Ponkshe,
- Abstract要約: 共同学習と私的学習の共同設計は、民営化されたコミュニケーションを1ラウンドだけ必要とします。
共同学習と私的学習を共同設計することで,民営化されたコミュニケーションを1ラウンドだけ必要とします。
- 参考スコア(独自算出の注目度): 7.521305003073384
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Traditional collaborative learning approaches are based on sharing of model weights between clients and a server. However, there are advantages to resource efficiency through schemes based on sharing of embeddings (activations) created from the data. Several differentially private methods were developed for sharing of weights while such mechanisms do not exist so far for sharing of embeddings. We propose Ours to learn a privacy encoding network in conjunction with a small utility generation network such that the final embeddings generated from it are equipped with formal differential privacy guarantees. These privatized embeddings are then shared with a more powerful server, that learns a post-processing that results in a higher accuracy for machine learning tasks. We show that our co-design of collaborative and private learning results in requiring only one round of privatized communication and lesser compute on the client than traditional methods. The privatized embeddings that we share from the client are agnostic to the type of model (deep learning, random forests or XGBoost) used on the server in order to process these activations to complete a task.
- Abstract(参考訳): 従来の協調学習アプローチは、クライアントとサーバ間でモデルの重みを共有することに基づいている。
しかし、データから生成された埋め込み(アクティベーション)の共有に基づくスキームによって、リソース効率の利点がある。
重みの共有にはいくつかの微分プライベートな方法が開発されたが、そのようなメカニズムは埋め込みの共有には存在していない。
そこで本研究では,プライバシ符号化ネットワークを小型ユーティリティ生成ネットワークと組み合わせて学習し,そこから生成された最終埋め込みに形式的な差分プライバシー保証を設けることを提案する。
これらのプライベートな埋め込みは、より強力なサーバと共有され、後処理を学習して機械学習タスクの精度を高める。
協調学習と私的学習を共同設計することで、従来の手法に比べて、プライベートなコミュニケーションを1ラウンドだけ必要とし、クライアント上での計算量が少なくなることが示されています。
クライアントから共有するプライベートな埋め込みは、これらのアクティベーションを処理するためにサーバで使用されるモデルのタイプ(深層学習、ランダムフォレスト、XGBoost)に依存しません。
関連論文リスト
- Personalized Federated Learning for Cross-view Geo-localization [49.40531019551957]
本稿では,フェデレート・ラーニング (FL) とクロスビュー・イメージ・ジオローカライゼーション (CVGL) 技術を組み合わせた方法論を提案する。
提案手法では, クライアントが粗い特徴抽出器のみを共有しながら, 局所環境に特有のきめ細かな特徴を保持する, 粗い特徴抽出器を実装している。
その結果,フェデレートCVGL法は,データプライバシを維持しつつ,集中的なトレーニングに近い性能を実現することができた。
論文 参考訳(メタデータ) (2024-11-07T13:25:52Z) - CollaFuse: Navigating Limited Resources and Privacy in Collaborative Generative AI [5.331052581441263]
CollaFuseはスプリットラーニングにインスパイアされた新しいフレームワークだ。
共有サーバのトレーニングと推論を可能にし、クライアントの計算負担を軽減する。
エッジコンピューティングソリューションの設計、ヘルスケア研究、自動運転など、さまざまなアプリケーション分野に影響を与える可能性がある。
論文 参考訳(メタデータ) (2024-02-29T12:36:10Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - Privacy-Preserving Machine Learning for Collaborative Data Sharing via
Auto-encoder Latent Space Embeddings [57.45332961252628]
データ共有プロセスにおけるプライバシ保護機械学習は、極めて重要なタスクである。
本稿では、オートエンコーダによる表現学習を用いて、プライバシーを保護した組込みデータを生成する革新的なフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-10T17:36:58Z) - ABG: A Multi-Party Mixed Protocol Framework for Privacy-Preserving
Cooperative Learning [13.212198032364363]
本稿では、さまざまなデータ所有者が機械学習に協力できるプライバシー保護型多人数協調学習システムを提案する。
また,ロジスティック回帰やニューラルネットワークなど,一般的な機械学習手法に対して,特定のプライバシ保護計算プロトコルを設計する。
実験の結果,特に低レイテンシのネットワーク環境において,ABG$n$は優れた性能を示した。
論文 参考訳(メタデータ) (2022-02-07T03:57:57Z) - An Expectation-Maximization Perspective on Federated Learning [75.67515842938299]
フェデレーション学習は、データをデバイス上でプライベートにしながら、複数のクライアントにわたるモデルの分散トレーニングを記述する。
本稿では,サーバがクライアント固有のモデルパラメータに対して事前分布のパラメータを提供する階層的潜在変数モデルとして,サーバが設定したフェデレーション学習プロセスについて考察する。
我々は,単純なガウス先行とよく知られた期待最大化(EM)アルゴリズムのハードバージョンを用いて,そのようなモデルの学習は,フェデレーション学習環境における最も一般的なアルゴリズムであるFedAvgに対応することを示す。
論文 参考訳(メタデータ) (2021-11-19T12:58:59Z) - A Graph Federated Architecture with Privacy Preserving Learning [48.24121036612076]
フェデレーション学習は、複数のエージェントと連携してグローバルモデルを見つける中央プロセッサを含む。
複数のクライアントに接続されたサーバの現在のアーキテクチャは、サーバの通信障害や計算過負荷に非常に敏感です。
暗号と差分プライバシーの概念を使用して、グラフ構造に拡張するフェデレーション学習アルゴリズムを民営化します。
論文 参考訳(メタデータ) (2021-04-26T09:51:24Z) - Differentially Private Secure Multi-Party Computation for Federated
Learning in Financial Applications [5.50791468454604]
フェデレートラーニングにより、信頼されたサーバで作業する多くのクライアントが、共有機械学習モデルを共同で学習することが可能になる。
これにより機密データを露出するリスクが軽減されるが、通信されたモデルパラメータからクライアントのプライベートデータセットに関する情報をリバースすることが可能になる。
筆者らは,非専門的な聴衆にプライバシ保存型フェデレーション学習プロトコルを提示し,実世界のクレジットカード詐欺データセットにロジスティック回帰を用いてそれを実証し,オープンソースシミュレーションプラットフォームを用いて評価する。
論文 参考訳(メタデータ) (2020-10-12T17:16:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。