論文の概要: Federated Learning of User Verification Models Without Sharing
Embeddings
- arxiv url: http://arxiv.org/abs/2104.08776v1
- Date: Sun, 18 Apr 2021 08:51:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-22 08:45:15.767184
- Title: Federated Learning of User Verification Models Without Sharing
Embeddings
- Title(参考訳): 埋め込みを共有しないユーザ検証モデルのフェデレーション学習
- Authors: Hossein Hosseini, Hyunsin Park, Sungrack Yun, Christos Louizos, Joseph
Soriaga, Max Welling
- Abstract要約: Federated User Verification(FedUV)は、ユーザが一連のベクトルを共同で学習し、それらのベクトルの秘密の線形結合とインスタンスの埋め込みの相関を最大化するフレームワークである。
誤り訂正符号の符号語から線形結合を選択することで,組込みベクトルを明かさずに協調的にモデルを訓練できることを示す。
- 参考スコア(独自算出の注目度): 73.27015469166166
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We consider the problem of training User Verification (UV) models in
federated setting, where each user has access to the data of only one class and
user embeddings cannot be shared with the server or other users. To address
this problem, we propose Federated User Verification (FedUV), a framework in
which users jointly learn a set of vectors and maximize the correlation of
their instance embeddings with a secret linear combination of those vectors. We
show that choosing the linear combinations from the codewords of an
error-correcting code allows users to collaboratively train the model without
revealing their embedding vectors. We present the experimental results for user
verification with voice, face, and handwriting data and show that FedUV is on
par with existing approaches, while not sharing the embeddings with other users
or the server.
- Abstract(参考訳): 我々は、各ユーザが1つのクラスのデータにアクセスでき、ユーザ埋め込みはサーバまたは他のユーザと共有できないという、連合設定におけるユーザ検証(uv)モデルのトレーニングの問題を考察する。
この問題に対処するために,ユーザがベクトルの集合を共同で学習し,それらのベクトルの秘密線形結合によるインスタンス埋め込みの相関を最大化するフレームワークであるFederated User Verification (FedUV)を提案する。
誤り訂正符号の符号語から線形結合を選択することで,組込みベクトルを明かさずに協調的にモデルを訓練できることを示す。
本稿では,音声,顔,手書きデータを用いたユーザ検証実験を行い,feduvが既存の手法と同等でありながら,他のユーザやサーバとの埋め込みは行わないことを示す。
関連論文リスト
- Separating and Learning Latent Confounders to Enhancing User Preferences
Modeling [6.839357057621987]
本研究では,過去のフィードバックからユーザの好みを捉え,候補項目に対するユーザ固有のフィードバックを予測するリコメンデータモデルについて検討する。
既存のデバイアスモデルでは,(1)特定のバイアスの解決に特化しているか,(2)ユーザの履歴フィードバックから直接補助情報を取得するかのいずれかである。
我々は,textbfSeparating and textbfLearning Latent Confounders textbfFor textbfRecommendationを提案する。
論文 参考訳(メタデータ) (2023-11-02T08:42:50Z) - User Inference Attacks on Large Language Models [26.616016510555088]
ファインチューニング(英: Fine-tuning)は、大規模言語モデル(LLM)を特定のタスクやアプリケーションに合わせるための、一般的で効果的な方法である。
ユーザデータに対する微調整LDMのプライバシーへの影響について検討する。
論文 参考訳(メタデータ) (2023-10-13T17:24:52Z) - Interactive Text Generation [75.23894005664533]
我々は,対話型テキスト生成タスクを導入し,実際のユーザを巻き込むことなく,対話型テキスト生成モデルのトレーニングを可能にする。
我々は、Imitation Learningを用いてインタラクティブモデルをトレーニングし、競合する非インタラクティブな生成モデルに対する実験により、インタラクティブにトレーニングされたモデルは非インタラクティブなモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-03-02T01:57:17Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - Intent-aware Multi-source Contrastive Alignment for Tag-enhanced
Recommendation [46.04494053005958]
我々は,情報ソースをまたいだ自己教師型学習を通じて,軽量で効果的な代替フレームワークを模索する。
我々は、ユーザと以前対話したアイテムに関連する補助情報とをペアリングするために、セルフスーパービジョン信号を使用する。
また,本手法はトレーニング時間を短縮しつつ,より優れた性能を実現することができることを示す。
論文 参考訳(メタデータ) (2022-11-11T17:43:19Z) - The Stereotyping Problem in Collaboratively Filtered Recommender Systems [77.56225819389773]
行列分解に基づく協調フィルタリングアルゴリズムは,ある種のステレオタイピングを誘導することを示す。
一般のユーザ層では、テキストセットの好みが反相関性がある場合、これらの項目は、ユーザーには推奨されない。
本稿では,各ユーザの多様な利害関係を捉えるために,代替的なモデリング修正を提案する。
論文 参考訳(メタデータ) (2021-06-23T18:37:47Z) - Federated Learning of User Authentication Models [69.93965074814292]
機械学習モデルのプライバシー保護のためのフレームワークであるFederated User Authentication (FedUA)を提案する。
FedUAは、フェデレートされた学習フレームワークを採用して、ユーザが生の入力を共有することなく、共同でモデルをトレーニングできるようにする。
提案手法はプライバシ保護であり,多数のユーザに対してスケーラブルであることを示し,出力層を変更することなく,新たなユーザをトレーニングに追加できるようにした。
論文 参考訳(メタデータ) (2020-07-09T08:04:38Z) - Federated Learning with Only Positive Labels [71.63836379169315]
FedAwS(Federated Averaging with Spreadout)という,正のラベルのみを用いたトレーニングのための汎用フレームワークを提案する。
理論的にも経験的にも、FedAwSは、ユーザが負のラベルにアクセス可能な従来の学習のパフォーマンスとほぼ一致していることを示す。
論文 参考訳(メタデータ) (2020-04-21T23:35:02Z) - Personalized Federated Learning: A Meta-Learning Approach [28.281166755509886]
フェデレートラーニング(Federated Learning)では、複数のコンピューティングユニット(ユーザ)にまたがるモデルをトレーニングすることを目的としています。
本稿では,現在あるいは新規利用者が自身のデータに対して1段階ないし数段階の勾配降下を実行することで,ローカルデータセットに容易に適応できるような,初歩的な共有モデルを見つけることを目標とする,フェデレーション学習のパーソナライズされたバリエーションについて検討する。
論文 参考訳(メタデータ) (2020-02-19T01:08:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。