論文の概要: Vertical Federated Linear Contextual Bandits
- arxiv url: http://arxiv.org/abs/2210.11050v1
- Date: Thu, 20 Oct 2022 06:59:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-21 13:58:36.449399
- Title: Vertical Federated Linear Contextual Bandits
- Title(参考訳): 垂直フェデレーション線形コンテキストバンディット
- Authors: Zeyu Cao, Zhipeng Liang, Shu Zhang, Hangyu Li, Ouyang Wen, Yu Rong,
Peilin Zhao, Bingzhe Wu
- Abstract要約: ローカルなコンテキスト情報を暗号化するための,行列ベースのマスク機構(O3M)を設計する。
このメカニズムをLinUCBとLinTSという2つの一般的な帯域幅アルゴリズムに適用し、オンラインレコメンデーションのための2つの実用的なプロトコルをインスタンス化する。
- 参考スコア(独自算出の注目度): 36.40993993623568
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we investigate a novel problem of building contextual bandits
in the vertical federated setting, i.e., contextual information is vertically
distributed over different departments. This problem remains largely unexplored
in the research community. To this end, we carefully design a customized
encryption scheme named orthogonal matrix-based mask mechanism(O3M) for
encrypting local contextual information while avoiding expensive conventional
cryptographic techniques. We further apply the mechanism to two commonly-used
bandit algorithms, LinUCB and LinTS, and instantiate two practical protocols
for online recommendation under the vertical federated setting. The proposed
protocols can perfectly recover the service quality of centralized bandit
algorithms while achieving a satisfactory runtime efficiency, which is
theoretically proved and analyzed in this paper. By conducting extensive
experiments on both synthetic and real-world datasets, we show the superiority
of the proposed method in terms of privacy protection and recommendation
performance.
- Abstract(参考訳): 本稿では,垂直フェデレーション環境でのコンテキストバンディット構築に関する新しい問題,すなわち,異なる部門にコンテキスト情報が垂直に分散している場合について検討する。
この問題は研究コミュニティでは未解決のままである。
そこで我々は,従来の暗号手法を回避しつつ,局所的な文脈情報を暗号化するための,直交行列ベースマスク機構(o3m)と呼ばれるカスタマイズ暗号方式を慎重に設計する。
さらに,この機構をlinucbとlintsという2つの一般的なバンディットアルゴリズムに適用し,垂直フェデレーション設定下でのオンライン推薦のための2つの実用的なプロトコルをインスタンス化する。
提案プロトコルは,理論的に証明され,解析された良好な実行効率を実現しつつ,集中型帯域幅アルゴリズムのサービス品質を回復することができる。
合成データと実世界のデータセットの両方について広範な実験を行い,提案手法のプライバシ保護とレコメンデーション性能の面での優位性を示した。
関連論文リスト
- Secure Information Embedding in Images with Hybrid Firefly Algorithm [2.9182357325967145]
本研究は,ホストイメージ内に機密文書フォーマット(PDF)を隠蔽する新たなステガノグラフィ手法を提案する。
この探索の目的は、ホスト画像のキャパシティを増大させ、歪みを減少させる2つの主要な目標を達成することである。
その結果,画像の歪みの減少と探索過程における収束速度の加速が示唆された。
論文 参考訳(メタデータ) (2023-12-21T01:50:02Z) - Concentrated Differential Privacy for Bandits [11.086440815804227]
本稿では,信頼性の高い集中型意思決定者による盗賊の識別プライバシー(DP)の理解に寄与する。
本稿では,AdaC-UCB,AdaC-GOPE,AdaC-OFULの3つのプライベートアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-09-01T16:08:00Z) - A Meta-learning Framework for Tuning Parameters of Protection Mechanisms
in Trustworthy Federated Learning [27.909662318838873]
信頼できるフェデレートラーニング(TFL)は通常、プライバシを保証するために保護メカニズムを活用する。
プライバシリーク, ユーティリティ損失, 効率低下のトレードオフを最適化する保護機構を見つける問題として, TFLを定式化するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-28T15:01:18Z) - On Differentially Private Federated Linear Contextual Bandits [9.51828574518325]
我々は、差分プライバシーの下で、クロスサイロフェデレーション線形文脈帯域問題(LCB)を考える。
現状の3つの課題は, (i) 主張されたプライバシ保護の失敗, (ii) ノイズの計算ミスによる不正確な後悔,である。
我々は,信頼されたサーバを使わずに,アルゴリズムがほぼ最適であることを示す。
論文 参考訳(メタデータ) (2023-02-27T16:47:49Z) - Perfectly Secure Steganography Using Minimum Entropy Coupling [60.154855689780796]
カチン1998のステガノグラフィー情報理論モデルでは, ステガノグラフィーの術式は完全に安全であることが示されている。
また, 完全セキュアな手順の中で, 最小エントロピー結合によって誘導される場合に限, 情報スループットが最大になることを示す。
論文 参考訳(メタデータ) (2022-10-24T17:40:07Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z) - Federated Offline Reinforcement Learning [55.326673977320574]
マルチサイトマルコフ決定プロセスモデルを提案する。
我々は,オフラインRLを対象とした最初のフェデレーション最適化アルゴリズムを設計する。
提案アルゴリズムでは,学習ポリシーの準最適性は,データが分散していないような速度に匹敵する,理論的保証を与える。
論文 参考訳(メタデータ) (2022-06-11T18:03:26Z) - Online Adversarial Attacks [57.448101834579624]
我々は、実世界のユースケースで見られる2つの重要な要素を強調し、オンライン敵攻撃問題を定式化する。
まず、オンライン脅威モデルの決定論的変種を厳格に分析する。
このアルゴリズムは、現在の最良の単一しきい値アルゴリズムよりも、$k=2$の競争率を確実に向上させる。
論文 参考訳(メタデータ) (2021-03-02T20:36:04Z) - A black-box adversarial attack for poisoning clustering [78.19784577498031]
本稿では,クラスタリングアルゴリズムのロバスト性をテストするために,ブラックボックス対逆攻撃法を提案する。
我々の攻撃は、SVM、ランダムフォレスト、ニューラルネットワークなどの教師付きアルゴリズムに対しても転送可能であることを示す。
論文 参考訳(メタデータ) (2020-09-09T18:19:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。