論文の概要: Effective and secure federated online learning to rank
- arxiv url: http://arxiv.org/abs/2412.19069v1
- Date: Thu, 26 Dec 2024 05:53:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-30 17:27:37.152824
- Title: Effective and secure federated online learning to rank
- Title(参考訳): 効果的でセキュアなオンライン学習のランク付け
- Authors: Shuyi Wang,
- Abstract要約: Online Learning to Rankは、クリックのような暗黙のユーザーフィードバックを使ってランキングモデルを最適化する。
これは、人間のアノテーションの高コスト、ユーザの好みと人間の判断の間の潜在的なミスアライメント、ユーザクエリインテントの急速な変更など、いくつかの欠点に対処する。
この論文は、フェデレートされたオンライン学習をランク付けするための総合的な研究であり、その有効性、堅牢性、セキュリティ、未学習の能力に対処している。
- 参考スコア(独自算出の注目度): 5.874142059884521
- License:
- Abstract: Online Learning to Rank (OLTR) optimises ranking models using implicit user feedback, such as clicks. Unlike traditional Learning to Rank (LTR) methods that rely on a static set of training data with relevance judgements to learn a ranking model, OLTR methods update the model continually as new data arrives. Thus, it addresses several drawbacks such as the high cost of human annotations, potential misalignment between user preferences and human judgments, and the rapid changes in user query intents. However, OLTR methods typically require the collection of searchable data, user queries, and clicks, which poses privacy concerns for users. Federated Online Learning to Rank (FOLTR) integrates OLTR within a Federated Learning (FL) framework to enhance privacy by not sharing raw data. While promising, FOLTR methods currently lag behind traditional centralised OLTR due to challenges in ranking effectiveness, robustness with respect to data distribution across clients, susceptibility to attacks, and the ability to unlearn client interactions and data. This thesis presents a comprehensive study on Federated Online Learning to Rank, addressing its effectiveness, robustness, security, and unlearning capabilities, thereby expanding the landscape of FOLTR.
- Abstract(参考訳): Online Learning to Rank (OLTR)は、クリックのような暗黙のユーザーフィードバックを使ってランキングモデルを最適化する。
従来のLearning to Rank(LTR)メソッドとは異なり、OLTRメソッドは新しいデータが到着するとモデルを継続的に更新する。
このように、人間のアノテーションのコストの高騰、ユーザの好みと人間の判断の誤調整の可能性、ユーザの問い合わせ意図の急速な変化など、いくつかの欠点に対処する。
しかしながら、OLTRメソッドは通常、検索可能なデータ、ユーザクエリ、クリックの収集を必要とし、ユーザに対してプライバシ上の懸念を生じさせる。
Federated Online Learning to Rank (FOLTR)は、OLTRをフェデレートラーニング(FL)フレームワークに統合し、生データを共有しないことでプライバシーを高める。
FOLTRメソッドは現在、従来の集中型OLTRよりも遅れている。これは、クライアント間のデータ分散に関する問題、攻撃への感受性、クライアントのインタラクションとデータを解放する能力、などだ。
この論文は、フェデレートされたオンライン学習をランク付けするための総合的な研究であり、その有効性、堅牢性、セキュリティ、未学習の能力に対処し、FOLTRの景観を拡大する。
関連論文リスト
- How to Forget Clients in Federated Online Learning to Rank? [34.5695601040165]
本研究では,クライアントのコントリビューションを,全体的なランキングの有効性を損なうことなく,効果的かつ効率的なアンラーニング手法について検討する。
重要な課題は、モデルが削除を要求するクライアント$c*$からのコントリビューションを指示したかどうかを測定することである。
論文 参考訳(メタデータ) (2024-01-24T12:11:41Z) - Federated Unlearning for Human Activity Recognition [11.287645073129108]
本稿では,クライアントのトレーニングデータの一部を選択的に除去することで,FL HARモデルを洗練するための軽量マシンアンラーニング手法を提案する。
本手法は,テキストリトレーニング手法に匹敵する非学習精度を実現し,数十~数千の高速化を実現する。
論文 参考訳(メタデータ) (2024-01-17T15:51:36Z) - FedLALR: Client-Specific Adaptive Learning Rates Achieve Linear Speedup
for Non-IID Data [54.81695390763957]
フェデレートラーニング(Federated Learning)は、分散機械学習の手法である。
我々は,AMSGradの異種局所変種であるFedLALRを提案し,各クライアントが学習率を調整する。
クライアントが指定した自動調整型学習率スケジューリングが,クライアント数に対して収束し,線形高速化を実現することを示す。
論文 参考訳(メタデータ) (2023-09-18T12:35:05Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Don't Memorize; Mimic The Past: Federated Class Incremental Learning
Without Episodic Memory [36.4406505365313]
本稿では,過去のデータの一部を格納するのではなく,生成モデルを用いて過去の分布からサンプルを合成する,連邦化クラスインクリメンタルラーニングのためのフレームワークを提案する。
生成モデルは、クライアントからデータを要求することなく、各タスクの最後にデータフリーのメソッドを使用してサーバ上でトレーニングされる。
論文 参考訳(メタデータ) (2023-07-02T07:06:45Z) - Unified Off-Policy Learning to Rank: a Reinforcement Learning
Perspective [61.4025671743675]
メソッドをランク付けするオフポリシー学習は、ユーザがクリックデータを生成する方法に関して、強い仮定をすることが多い。
オフライン強化学習は,複雑なデバイアス手法や事前知識を使わずに,様々なクリックモデルに適応できることを示す。
様々な大規模データセットの結果から、CUOLRはアルゴリズムのランク付けに最先端のオフポリシー学習を一貫して上回っていることが示される。
論文 参考訳(メタデータ) (2023-06-13T03:46:22Z) - Online Meta-Learning for Model Update Aggregation in Federated Learning
for Click-Through Rate Prediction [2.9649783577150837]
モデル更新を集約する戦略を学習するための簡単なオンラインメタ学習手法を提案する。
本手法は, 収束速度と最終学習結果の質の両方において, 最先端の手法を著しく上回っている。
論文 参考訳(メタデータ) (2022-08-30T18:13:53Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z) - Federated Unbiased Learning to Rank [3.125116096130909]
Unbiased Learning to Rank (ULTR)は、偏りのあるユーザインタラクションに基づいてランキング関数を学習する問題を研究する。
本稿では,ユーザがローカルデバイス上で個人用コーパスを検索するオンデバイス検索環境について考察する。
本稿では,中央サーバの協調の下でデバイス上でのユーザインタラクションから学習するFedIPSアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-05-11T03:01:14Z) - AliExpress Learning-To-Rank: Maximizing Online Model Performance without
Going Online [60.887637616379926]
本稿では,学習からランクへ学習するための評価器・ジェネレータフレームワークを提案する。
コンテキストを含むレコメンデーションを一般化して評価する評価器と、強化学習による評価器スコアを最大化するジェネレータとから構成される。
本手法は, オンラインA/Bテストにおける産業レベルの微調整モデルよりも, 変換率(CR)の面で大幅に向上する。
論文 参考訳(メタデータ) (2020-03-25T10:27:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。