論文の概要: Transparency, Privacy, and Fairness in Recommender Systems
- arxiv url: http://arxiv.org/abs/2406.11323v2
- Date: Fri, 28 Jun 2024 10:43:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-10 21:41:09.000286
- Title: Transparency, Privacy, and Fairness in Recommender Systems
- Title(参考訳): レコメンダシステムにおける透明性,プライバシ,公正性
- Authors: Dominik Kowald,
- Abstract要約: このハビテーションは、(i)透明性と認知モデル、(ii)プライバシーと限定された嗜好情報、(iii)推薦システムにおける公正性と人気バイアスに関連する側面を精査する。
- 参考スコア(独自算出の注目度): 0.19036571490366497
- License:
- Abstract: Recommender systems have become a pervasive part of our daily online experience, and are one of the most widely used applications of artificial intelligence and machine learning. Therefore, regulations and requirements for trustworthy artificial intelligence, for example, the European AI Act, which includes notions such as transparency, privacy, and fairness are also highly relevant for the design of recommender systems in practice. This habilitation elaborates on aspects related to these three notions in the light of recommender systems, namely: (i) transparency and cognitive models, (ii) privacy and limited preference information, and (iii) fairness and popularity bias in recommender systems. Specifically, with respect to aspect (i), we highlight the usefulness of incorporating psychological theories for a transparent design process of recommender systems. We term this type of systems psychology-informed recommender systems. In aspect (ii), we study and address the trade-off between accuracy and privacy in differentially-private recommendations. We design a novel recommendation approach for collaborative filtering based on an efficient neighborhood reuse concept, which reduces the number of users that need to be protected with differential privacy. Furthermore, we address the related issue of limited availability of user preference information, e.g., click data, in the settings of session-based and cold-start recommendations. With respect to aspect (iii), we analyze popularity bias in recommender systems. We find that the recommendation frequency of an item is positively correlated with this item's popularity. This also leads to the unfair treatment of users with little interest in popular content. Finally, we study long-term fairness dynamics in algorithmic decision support in the labor market using agent-based modeling techniques.
- Abstract(参考訳): リコメンダシステムは、私たちの日々のオンライン体験において広く使われている部分となり、人工知能と機械学習の最も広く使われている応用の1つになっています。
したがって、例えば、透明性、プライバシー、公平性といった概念を含む欧州AI法(英語版)のような信頼できる人工知能の規則と要件は、実際にはレコメンダシステムの設計にも非常に関係している。
このハビテーションは、レコメンデーターシステム、すなわち、これらの3つの概念に関連する側面を詳しく説明している。
i)透明性と認知モデル
(二)プライバシー及び限定優先情報
三 推薦システムにおける公正性と人気バイアス
特に、側面に関して
(i) 推薦システムの透明な設計プロセスにおいて, 心理学的理論を取り入れることの有用性を強調した。
このタイプのシステムを心理学的インフォームドレコメンデーションシステムと呼ぶ。
立場から
(II) 差分民営レコメンデーションにおける精度とプライバシのトレードオフについて検討し, 対処する。
本研究では,効率的な地域再利用概念に基づく協調フィルタリングのための新しい推奨手法を設計し,差分プライバシーで保護される必要のあるユーザ数を削減した。
さらに,セッションベースおよびコールドスタートレコメンデーションの設定において,ユーザの嗜好情報(例えば,クリックデータ)の限定的利用に関する問題点に対処する。
側面について
また,レコメンデーションシステムにおける人気バイアスを分析した。
提案項目の推薦頻度は,この項目の人気と正の相関関係があることが判明した。
これはまた、人気コンテンツへの関心がほとんどないユーザーの不公平な扱いにつながる。
最後に,エージェント・ベース・モデリング手法を用いて,労働市場におけるアルゴリズム決定支援における長期公正度動態について検討する。
関連論文リスト
- A Deep Dive into Fairness, Bias, Threats, and Privacy in Recommender Systems: Insights and Future Research [45.86892639035389]
本研究では,推薦システムにおける公正性,バイアス,脅威,プライバシについて検討する。
アルゴリズムによる決定が、意図せずバイアスを強化したり、特定のユーザやアイテムグループを疎外したりする方法について検討する。
この研究は、推薦システムの堅牢性、公正性、プライバシーを改善するための今後の研究の方向性を示唆している。
論文 参考訳(メタデータ) (2024-09-19T11:00:35Z) - User Consented Federated Recommender System Against Personalized
Attribute Inference Attack [55.24441467292359]
本稿では,ユーザの異なるプライバシーニーズを柔軟に満たすために,ユーザ合意型フェデレーションレコメンデーションシステム(UC-FedRec)を提案する。
UC-FedRecは、ユーザーが様々な要求を満たすためにプライバシー設定を自己定義し、ユーザーの同意を得てレコメンデーションを行うことを可能にする。
論文 参考訳(メタデータ) (2023-12-23T09:44:57Z) - Neural Contextual Bandits for Personalized Recommendation [49.85090929163639]
本チュートリアルでは、パーソナライズされたレコメンデーションのための強力なフレームワークとして、コンテキスト帯について検討する。
我々は、リコメンデーターシステムにおける「マシュー効果」を緩和するために、文脈的盗賊の探索的視点に焦点を当てる。
従来の線形文脈包帯に加えて、我々は神経文脈包帯にも焦点をあてる。
論文 参考訳(メタデータ) (2023-12-21T17:03:26Z) - A Survey on Fairness-aware Recommender Systems [59.23208133653637]
本稿では,様々なレコメンデーションシナリオにおいてフェアネスの概念を提示し,現在の進歩を包括的に分類し,レコメンデーションシステムのさまざまな段階におけるフェアネスを促進するための典型的な手法を紹介する。
次に、フェアネスを意識したレコメンデーションシステムが実業界における産業応用に与える影響について検討する。
論文 参考訳(メタデータ) (2023-06-01T07:08:22Z) - Discussion about Attacks and Defenses for Fair and Robust Recommendation
System Design [0.0]
レコメンデーションシステムは、特定の製品の宣伝やデモを行う偽レビューなど、悪意のあるユーザーの偏見に弱い。
ディープラーニング協調フィルタリングレコメンデーションシステムは、このバイアスに対してより脆弱であることが示されている。
公正と安定のための堅牢なレコメンデーションシステムを設計する必要性について論じる。
論文 参考訳(メタデータ) (2022-09-28T13:00:26Z) - A Comprehensive Survey on Trustworthy Recommender Systems [32.523177842969915]
本稿では,信頼に値するレコメンダシステム (TRec) の概要について概説する。
それぞれの側面について、最近の技術についてまとめ、信頼性の高いレコメンデータシステムの実現を支援する研究の方向性について論じる。
論文 参考訳(メタデータ) (2022-09-21T04:34:17Z) - Fairness and Transparency in Recommendation: The Users' Perspective [14.830700792215849]
公平性認識型レコメンダーシステムのユーザ視点について考察する。
フェアネス対応レコメンダーシステムのユーザ理解と信頼を向上させる3つの機能を提案します。
論文 参考訳(メタデータ) (2021-03-16T00:42:09Z) - Fairness-Aware Explainable Recommendation over Knowledge Graphs [73.81994676695346]
ユーザのアクティビティのレベルに応じて異なるグループのユーザを分析し、異なるグループ間での推奨パフォーマンスにバイアスが存在することを確認する。
不活性なユーザは、不活性なユーザのためのトレーニングデータが不十分なため、不満足なレコメンデーションを受けやすい可能性がある。
本稿では、知識グラフに対する説明可能な推奨という文脈で、この問題を緩和するために再ランク付けすることで、公平性に制約されたアプローチを提案する。
論文 参考訳(メタデータ) (2020-06-03T05:04:38Z) - Survey for Trust-aware Recommender Systems: A Deep Learning Perspective [48.2733163413522]
信頼できるレコメンデーションシステムを採用することが重要になります。
本調査では,信頼を意識したレコメンデータシステムの3つのカテゴリについて概説する。
論文 参考訳(メタデータ) (2020-04-08T02:11:55Z) - Exploring User Opinions of Fairness in Recommender Systems [13.749884072907163]
ユーザーが推奨する公平な待遇の考えは何なのかを尋ねる。
公平性に対するユーザの意見の相違や変化の原因となるものを分析する。
論文 参考訳(メタデータ) (2020-03-13T19:44:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。