論文の概要: Machine Unlearning for Recommendation Systems: An Insight
- arxiv url: http://arxiv.org/abs/2401.10942v1
- Date: Wed, 17 Jan 2024 18:35:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-28 15:57:55.835922
- Title: Machine Unlearning for Recommendation Systems: An Insight
- Title(参考訳): 推薦システムのための機械学習: インサイト
- Authors: Bhavika Sachdeva, Harshita Rathee, Sristi, Arun Sharma, Witold
Wydma\'nski
- Abstract要約: レビューでは、リコメンデーションシステムにおける機械学習(MUL)について検討する。
論文は、MULの基本、現実世界の応用、およびアルゴリズムの透明性のような課題について批判的に考察している。
- 参考スコア(独自算出の注目度): 0.11176056718558339
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This review explores machine unlearning (MUL) in recommendation systems,
addressing adaptability, personalization, privacy, and bias challenges. Unlike
traditional models, MUL dynamically adjusts system knowledge based on shifts in
user preferences and ethical considerations. The paper critically examines
MUL's basics, real-world applications, and challenges like algorithmic
transparency. It sifts through literature, offering insights into how MUL could
transform recommendations, discussing user trust, and suggesting paths for
future research in responsible and user-focused artificial intelligence (AI).
The document guides researchers through challenges involving the trade-off
between personalization and privacy, encouraging contributions to meet
practical demands for targeted data removal. Emphasizing MUL's role in secure
and adaptive machine learning, the paper proposes ways to push its boundaries.
The novelty of this paper lies in its exploration of the limitations of the
methods, which highlights exciting prospects for advancing the field.
- Abstract(参考訳): このレビューでは、適応性、パーソナライゼーション、プライバシ、バイアス問題に対処するレコメンデーションシステムにおける機械学習(MUL)について検討する。
従来のモデルとは異なり、MULはユーザの好みや倫理的配慮の変化に基づいてシステム知識を動的に調整する。
この論文は、MULの基本、現実世界の応用、およびアルゴリズムの透明性のような課題について批判的に考察する。
MULがレコメンデーションをどう変えるか、ユーザ信頼について議論し、責任とユーザ中心の人工知能(AI)における将来の研究の道筋を提案する。
この文書は、パーソナライゼーションとプライバシのトレードオフに関わる課題を通じて研究者を導き、ターゲットデータ削除の実用的な要求を満たすために貢献を奨励する。
セキュアで適応的な機械学習におけるMULの役割を強調し、その境界を押し上げる方法を提案する。
本稿の目新しさは,この分野を前進させるエキサイティングな展望を浮き彫りにする手法の限界を探求することにある。
関連論文リスト
- A Survey on Recommendation Unlearning: Fundamentals, Taxonomy, Evaluation, and Open Questions [16.00188808166725]
推薦システムは、ユーザの行動と意思決定を形作ることに、ますます影響力を増している。
レコメンデータシステムにおける機械学習モデルの普及は、ユーザのプライバシとセキュリティに関する重要な懸念を引き起こしている。
従来の機械学習手法は、協調的な相互作用やモデルパラメータによって引き起こされるユニークな課題のために、アンラーニングを推奨するのに不適である。
論文 参考訳(メタデータ) (2024-12-17T11:58:55Z) - Machine Unlearning Doesn't Do What You Think: Lessons for Generative AI Policy, Research, and Practice [186.055899073629]
非学習はしばしば、生成AIモデルからターゲット情報の影響を取り除くソリューションとして呼び出される。
未学習はまた、モデルが出力中にターゲットとなるタイプの情報を生成するのを防ぐ方法として提案されている。
これら2つの目標 - モデルからの情報の標的的除去と、モデル出力からの情報のターゲット的抑制 - は、様々な技術的および現実的な課題を表す。
論文 参考訳(メタデータ) (2024-12-09T20:18:43Z) - Machine Unlearning for Traditional Models and Large Language Models: A Short Survey [11.539080008361662]
機械学習は、データを削除し、ユーザーの要求に応じてモデルへの影響を減らすことを目的としている。
本稿では,従来のモデルとLarge Language Models(LLMs)の両方の非学習を分類し,検討する。
論文 参考訳(メタデータ) (2024-04-01T16:08:18Z) - The Frontier of Data Erasure: Machine Unlearning for Large Language Models [56.26002631481726]
大規模言語モデル(LLM)はAIの進歩の基礎となっている。
LLMは機密情報、偏見情報、著作権情報を記憶し、広めることによってリスクを生じさせる。
機械学習は、これらの懸念を軽減するための最先端のソリューションとして現れます。
論文 参考訳(メタデータ) (2024-03-23T09:26:15Z) - Bayesian Preference Elicitation with Language Models [82.58230273253939]
本稿では,BOEDを用いて情報的質問の選択を案内するフレームワークOPENと,特徴抽出のためのLMを紹介する。
ユーザスタディでは,OPEN が既存の LM- や BOED をベースとした選好手法よりも優れていることが判明した。
論文 参考訳(メタデータ) (2024-03-08T18:57:52Z) - Emerging Synergies Between Large Language Models and Machine Learning in
Ecommerce Recommendations [19.405233437533713]
大規模言語モデル(LLM)は、言語理解と生成の基本的なタスクにおいて優れた機能を持つ。
機能エンコーダとしてLLMを用いたユーザとアイテムの表現を学習するための代表的なアプローチを提案する。
次に、協調フィルタリング強化レコメンデーションシステムのためのLLM技術の最新技術について概説した。
論文 参考訳(メタデータ) (2024-03-05T08:31:00Z) - Exploring Federated Unlearning: Analysis, Comparison, and Insights [101.64910079905566]
フェデレーション・アンラーニングは、フェデレーション・システムで訓練されたモデルからデータを選択的に除去することを可能にする。
本稿では,既存のフェデレーション・アンラーニング手法について検討し,アルゴリズムの効率,モデル精度への影響,プライバシ保護の有効性について検討する。
フェデレートされたアンラーニング手法を評価するための統一ベンチマークであるOpenFederatedUnlearningフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-30T01:34:33Z) - Embedding in Recommender Systems: A Survey [67.67966158305603]
重要な側面は、ユーザやアイテムIDといった高次元の離散的な特徴を低次元連続ベクトルに包含する技法である。
埋め込み技術の適用は複雑なエンティティ関係を捉え、かなりの研究を刺激している。
この調査では、協調フィルタリング、自己教師付き学習、グラフベースのテクニックなどの埋め込み手法を取り上げている。
論文 参考訳(メタデータ) (2023-10-28T06:31:06Z) - Recommender Systems in the Era of Large Language Models (LLMs) [62.0129013439038]
大規模言語モデル(LLM)は自然言語処理(NLP)と人工知能(AI)の分野に革命をもたらした。
我々は, プレトレーニング, ファインチューニング, プロンプティングなどの様々な側面から, LLM を利用したレコメンデータシステムの総合的なレビューを行う。
論文 参考訳(メタデータ) (2023-07-05T06:03:40Z) - Exploring the Landscape of Machine Unlearning: A Comprehensive Survey
and Taxonomy [17.535417441295074]
機械学習(ML)モデルによる予測の削除や修正の必要性から、機械学習(MU)が注目を集めている。
本稿では,現在の最先端技術とアプローチを網羅したMUの包括的調査を行う。
また、攻撃の高度化、標準化、転送可能性、解釈可能性、リソース制約など、対処すべき課題を強調している。
論文 参考訳(メタデータ) (2023-05-10T12:02:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。