論文の概要: Unlearning for Federated Online Learning to Rank: A Reproducibility Study
- arxiv url: http://arxiv.org/abs/2505.12791v1
- Date: Mon, 19 May 2025 07:23:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:11.46111
- Title: Unlearning for Federated Online Learning to Rank: A Reproducibility Study
- Title(参考訳): フェデレートされたオンライン学習のランク付けのためのアンラーニング : 再現性に関する調査
- Authors: Yiling Tao, Shuyi Wang, Jiaxi Yang, Guido Zuccon,
- Abstract要約: 本稿では,FOLTR(Federated Online Learning to Rank)におけるフェデレーション・アンラーニング・ストラテジーの有効性と効果について報告する。
本研究は、アンダーアンラーニングとオーバーアンラーニングの両方のシナリオを管理するために、アンラーニング戦略の有効性を厳格に評価する。
- 参考スコア(独自算出の注目度): 24.712358666002658
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper reports on findings from a comparative study on the effectiveness and efficiency of federated unlearning strategies within Federated Online Learning to Rank (FOLTR), with specific attention to systematically analysing the unlearning capabilities of methods in a verifiable manner. Federated approaches to ranking of search results have recently garnered attention to address users privacy concerns. In FOLTR, privacy is safeguarded by collaboratively training ranking models across decentralized data sources, preserving individual user data while optimizing search results based on implicit feedback, such as clicks. Recent legislation introduced across numerous countries is establishing the so called "the right to be forgotten", according to which services based on machine learning models like those in FOLTR should provide capabilities that allow users to remove their own data from those used to train models. This has sparked the development of unlearning methods, along with evaluation practices to measure whether unlearning of a user data successfully occurred. Current evaluation practices are however often controversial, necessitating the use of multiple metrics for a more comprehensive assessment -- but previous proposals of unlearning methods only used single evaluation metrics. This paper addresses this limitation: our study rigorously assesses the effectiveness of unlearning strategies in managing both under-unlearning and over-unlearning scenarios using adapted, and newly proposed evaluation metrics. Thanks to our detailed analysis, we uncover the strengths and limitations of five unlearning strategies, offering valuable insights into optimizing federated unlearning to balance data privacy and system performance within FOLTR. We publicly release our code and complete results at https://github.com/Iris1026/Unlearning-for-FOLTR.git.
- Abstract(参考訳): 本稿では,FOLTR(Federated Online Learning to Rank)におけるフェデレーション・アンラーニング・ストラテジーの有効性と効率に関する比較研究の結果について報告する。
検索結果のランク付けに対するフェデレートされたアプローチは、ユーザーのプライバシー問題に対処するために最近注目を集めている。
FOLTRでは、個別のユーザーデータを保存し、クリックのような暗黙のフィードバックに基づいて検索結果を最適化しながら、分散化されたデータソース間でランキングモデルを協調的にトレーニングすることで、プライバシが保護される。
FOLTRのような機械学習モデルに基づくサービスは、ユーザーがモデルをトレーニングするために使用したデータから自身のデータを削除できる機能を提供する必要がある。
これにより、ユーザデータの未学習が成功したかどうかを測定するための評価プラクティスとともに、未学習の手法の開発が引き起こされた。
しかしながら、現在の評価プラクティスはしばしば議論の余地があり、より包括的な評価のために複数のメトリクスを使用する必要がある。
本研究は、適応的、新たに提案された評価指標を用いて、アンダーアンラーニングとオーバーアンラーニングの両方のシナリオを管理するための、アンラーニング戦略の有効性を厳格に評価する。
詳細な分析により、5つのアンラーニング戦略の長所と短所を明らかにし、フェデレートされたアンラーニングを最適化し、FOLTR内のデータプライバシとシステムパフォーマンスのバランスをとるための貴重な洞察を提供する。
コードと完全な結果はhttps://github.com/Iris1026/Unlearning-for-FOLTR.git.comで公開しています。
関連論文リスト
- MUBox: A Critical Evaluation Framework of Deep Machine Unlearning [13.186439491394474]
MUBoxは、ディープラーニングにおける未学習の手法を評価するために設計された総合的なプラットフォームである。
MUBoxは23の高度なアンラーニング技術を統合し、11の多様な評価指標で6つの実践シナリオでテストされている。
論文 参考訳(メタデータ) (2025-05-13T13:50:51Z) - Privacy-Preserved Automated Scoring using Federated Learning for Educational Research [1.2556373621040728]
本稿では,教育評価の自動評価のための統合学習(FL)フレームワークを提案する。
我々は,2つの最先端FL手法と集中学習ベースラインに対して,我々のモデルをベンチマークする。
その結果,本モデルが最も精度が高い(94.5%)ことが示唆された。
論文 参考訳(メタデータ) (2025-03-12T19:06:25Z) - Effective and secure federated online learning to rank [5.874142059884521]
Online Learning to Rankは、クリックのような暗黙のユーザーフィードバックを使ってランキングモデルを最適化する。
これは、人間のアノテーションの高コスト、ユーザの好みと人間の判断の間の潜在的なミスアライメント、ユーザクエリインテントの急速な変更など、いくつかの欠点に対処する。
この論文は、フェデレートされたオンライン学習をランク付けするための総合的な研究であり、その有効性、堅牢性、セキュリティ、未学習の能力に対処している。
論文 参考訳(メタデータ) (2024-12-26T05:53:10Z) - Learn while Unlearn: An Iterative Unlearning Framework for Generative Language Models [52.03511469562013]
3つのコアコンポーネントで構成されるICU(Iterative Contrastive Unlearning)フレームワークを紹介する。
知識未学習誘導モジュールは、未学習の損失を使用して、特定の知識を除去するためにターゲットとする。
Contrastive Learning Enhancementモジュールは、純粋な未学習の目標に対してモデルの表現力を保持する。
イテレーティブ・アンラーニング・リファインメントモジュールは、進行中の評価と更新を通じて、アンラーニングプロセスを動的に調整する。
論文 参考訳(メタデータ) (2024-07-25T07:09:35Z) - Towards Effective Evaluations and Comparisons for LLM Unlearning Methods [97.2995389188179]
本稿では,大規模言語モデルにおける機械学習評価の精度向上を図る。
評価指標の堅牢性と、競合する目標間のトレードオフという、2つの重要な課題に対処します。
論文 参考訳(メタデータ) (2024-06-13T14:41:00Z) - Exploring Federated Unlearning: Review, Comparison, and Insights [101.64910079905566]
フェデレーション・アンラーニングは、フェデレーション・システムで訓練されたモデルからデータを選択的に除去することを可能にする。
本稿では,既存のフェデレーション・アンラーニング手法について検討し,アルゴリズムの効率,モデル精度への影響,プライバシ保護の有効性について検討する。
フェデレートされたアンラーニング手法を評価するための統一ベンチマークであるOpenFederatedUnlearningフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-30T01:34:33Z) - Evaluating Machine Unlearning via Epistemic Uncertainty [78.27542864367821]
本研究では,不確実性に基づく機械学習アルゴリズムの評価を行う。
これは私たちの最良の知識の一般的な評価の最初の定義です。
論文 参考訳(メタデータ) (2022-08-23T09:37:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。