論文の概要: Break Out of a Pigeonhole: A Unified Framework for Examining
Miscalibration, Bias, and Stereotype in Recommender Systems
- arxiv url: http://arxiv.org/abs/2312.17443v1
- Date: Fri, 29 Dec 2023 02:32:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-02 14:06:40.059206
- Title: Break Out of a Pigeonhole: A Unified Framework for Examining
Miscalibration, Bias, and Stereotype in Recommender Systems
- Title(参考訳): ハトの穴から抜け出す:レコメンデーションシステムにおけるミスカバリレーション、バイアス、ステレオタイプを調べるための統一フレームワーク
- Authors: Yongsu Ahn and Yu-Ru Lin
- Abstract要約: 本研究の目的は,レコメンデーションシステムの体系的エラーと,それらが様々なアカウンタビリティ問題にどのように現れるかを明らかにすることである。
本稿では,予測誤りの原因を,様々な種類のシステムに誘発される影響を定量化する重要な指標の集合に識別する統合フレームワークを提案する。
本研究は,システムによる影響と誤校正だけでなく,レコメンデーションシステムにおけるステレオタイピングの問題についても,初めて体系的に検討したものである。
- 参考スコア(独自算出の注目度): 6.209548319476692
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the benefits of personalizing items and information tailored to
users' needs, it has been found that recommender systems tend to introduce
biases that favor popular items or certain categories of items, and dominant
user groups. In this study, we aim to characterize the systematic errors of a
recommendation system and how they manifest in various accountability issues,
such as stereotypes, biases, and miscalibration. We propose a unified framework
that distinguishes the sources of prediction errors into a set of key measures
that quantify the various types of system-induced effects, both at the
individual and collective levels. Based on our measuring framework, we examine
the most widely adopted algorithms in the context of movie recommendation. Our
research reveals three important findings: (1) Differences between algorithms:
recommendations generated by simpler algorithms tend to be more stereotypical
but less biased than those generated by more complex algorithms. (2) Disparate
impact on groups and individuals: system-induced biases and stereotypes have a
disproportionate effect on atypical users and minority groups (e.g., women and
older users). (3) Mitigation opportunity: using structural equation modeling,
we identify the interactions between user characteristics (typicality and
diversity), system-induced effects, and miscalibration. We further investigate
the possibility of mitigating system-induced effects by oversampling
underrepresented groups and individuals, which was found to be effective in
reducing stereotypes and improving recommendation quality. Our research is the
first systematic examination of not only system-induced effects and
miscalibration but also the stereotyping issue in recommender systems.
- Abstract(参考訳): 利用者のニーズに合わせて商品や情報をパーソナライズすることの利点にもかかわらず、推薦システムは人気アイテムや特定のカテゴリーのアイテムや支配的なユーザーグループに有利なバイアスをもたらす傾向がある。
本研究では,レコメンデーションシステムの体系的誤りと,ステレオタイプやバイアス,誤校正など,さまざまな説明責任問題にどのように現れるかを明らかにすることを目的とする。
本稿では,予測誤りの原因を,個人レベルでも集団レベルでも,様々な種類のシステム誘発効果を定量化する重要な指標の集合に識別する統合フレームワークを提案する。
評価の枠組みに基づき,映画推薦の文脈において最も広く採用されているアルゴリズムについて検討した。
1) アルゴリズムの違い: 単純なアルゴリズムによって生成されるレコメンデーションは、より複雑なアルゴリズムによって生成されるものよりもステレオタイプ的であるが、バイアスが少ない傾向にある。
2) グループや個人に対する異なる影響: システムによる偏見とステレオタイプは非定型的ユーザや少数派(女性や高齢者など)に不均等な影響を及ぼす。
3) 緩和機会: 構造方程式モデリングを用いて, ユーザ特性(典型的・多様性), システム誘発効果, 誤校正の相互作用を同定する。
また,ステレオタイプ低減や推奨品質の向上に有効な過小評価されたグループや個人を過小評価することで,システム誘発効果の軽減の可能性についても検討した。
本研究は,レコメンダシステムにおけるシステム誘発効果とミスキャリブレーションだけでなく,ステレオタイプ問題も体系的に検討した最初の研究である。
関連論文リスト
- Quantifying User Coherence: A Unified Framework for Cross-Domain Recommendation Analysis [69.37718774071793]
本稿では,レコメンデーションシステムを理解するための新しい情報理論手法を提案する。
9つのデータセットで7つのレコメンデーションアルゴリズムを評価し、測定値と標準的なパフォーマンス指標の関係を明らかにする。
論文 参考訳(メタデータ) (2024-10-03T13:02:07Z) - Comprehensive Equity Index (CEI): Definition and Application to Bias Evaluation in Biometrics [47.762333925222926]
本稿では,機械学習モデルのバイアス行動の定量化のための新しい指標を提案する。
顔認識システムの運用評価に焦点をあて,適用する。
論文 参考訳(メタデータ) (2024-09-03T14:19:38Z) - Metrics for popularity bias in dynamic recommender systems [0.0]
バイアスドレコメンデーションは個人、敏感なユーザーグループ、社会に悪影響を及ぼす可能性のある決定につながる可能性がある。
本稿では,RecSysモデルの出力から直接発生する人気バイアスの定量化に着目する。
RescSysにおける人気バイアスを時間とともに定量化するための4つの指標が提案されている。
論文 参考訳(メタデータ) (2023-10-12T16:15:30Z) - Ecosystem-level Analysis of Deployed Machine Learning Reveals Homogeneous Outcomes [72.13373216644021]
本研究では,機械学習の社会的影響を,特定の文脈に展開されるモデルの集合を考慮し検討する。
デプロイされた機械学習はシステム障害を起こしやすいため、利用可能なすべてのモデルに排他的に誤分類されているユーザもいます。
これらの例は、エコシステムレベルの分析が、機械学習の社会的影響を特徴づける独自の強みを持っていることを示している。
論文 参考訳(メタデータ) (2023-07-12T01:11:52Z) - Managing multi-facet bias in collaborative filtering recommender systems [0.0]
アイテムグループ間のバイアスドレコメンデーションは、システムに対するユーザの不満を引き起こすとともに、アイテムプロバイダの利益を脅かす可能性がある。
本研究の目的は,最先端の協調フィルタリング推薦アルゴリズムの出力における地理的起源と人気に関する新たなタイプの交叉バイアスを管理することである。
2つの実世界の映画と書籍のデータセットに関する大規模な実験は、アイテムの生産大陸に富んだものであり、提案アルゴリズムが精度と上記のバイアスの両タイプの間に合理的なバランスをとっていることを示している。
論文 参考訳(メタデータ) (2023-02-21T10:06:01Z) - Picking on the Same Person: Does Algorithmic Monoculture lead to Outcome
Homogenization? [90.35044668396591]
機械学習における繰り返しのテーマはアルゴリズムによるモノカルチャーである。同じシステム、またはコンポーネントを共有するシステムは、複数の意思決定者によってデプロイされる。
意思決定者がトレーニングデータや特定のモデルなどのコンポーネントを共有すれば、より均一な結果が得られます。
我々はこの仮説をアルゴリズムフェアネスベンチマークで検証し、トレーニングデータの共有がホモジェナイゼーションを確実に悪化させることを示した。
結果の均質化に関する哲学的分析と社会的な課題を、デプロイされた機械学習システムに含めることに着目して結論付ける。
論文 参考訳(メタデータ) (2022-11-25T09:33:11Z) - Joint Multisided Exposure Fairness for Recommendation [76.75990595228666]
本稿では,消費者と生産者の両面から共同で問題をモデル化する,露出公正度尺度のファミリを定式化する。
具体的には、双方の利害関係者に対するグループ属性について、個別のユーザや項目を超えて、より体系的なバイアスを推奨するフェアネスの懸念を識別し緩和する。
論文 参考訳(メタデータ) (2022-04-29T19:13:23Z) - To Recommend or Not? A Model-Based Comparison of Item-Matching Processes [7.636113901205644]
推薦システムは、現代のオンラインプラットフォームの中心であるが、一般的な懸念は、彼らが社会を危険な方向に引っ張っていることだ。
私たちはこの課題に対してモデルベースのアプローチを採用し、比較可能なプロセスモデルの二分法を導入しています。
私たちの重要な発見は、レコメンデーターとオーガニックモデルが、個人レベルと社会的レベルの両方で劇的に異なる結果をもたらすことです。
論文 参考訳(メタデータ) (2021-10-21T20:37:56Z) - Measuring Recommender System Effects with Simulated Users [19.09065424910035]
人気バイアスとフィルターバブルは、最もよく研究されているシステムバイアスの2つです。
各種ユーザ行動下におけるレコメンダーシステムの影響を測定するためのシミュレーションフレームワークを提供します。
論文 参考訳(メタデータ) (2021-01-12T14:51:11Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z) - Modeling and Counteracting Exposure Bias in Recommender Systems [0.0]
本研究では,行列因数分解など,広く用いられている推奨戦略に固有のバイアスについて検討する。
本稿では,リコメンデータシステムのための新しいデバイアス対策を提案する。
その結果,レコメンダシステムにはバイアスがあり,ユーザの事前の露出に依存していることがわかった。
論文 参考訳(メタデータ) (2020-01-01T00:12:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。