論文の概要: A Closer Look on Gender Stereotypes in Movie Recommender Systems and Their Implications with Privacy
- arxiv url: http://arxiv.org/abs/2501.04420v1
- Date: Wed, 08 Jan 2025 11:08:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-09 14:54:41.591230
- Title: A Closer Look on Gender Stereotypes in Movie Recommender Systems and Their Implications with Privacy
- Title(参考訳): 映画レコメンダシステムにおけるジェンダーステレオタイプとプライバシとの関連性
- Authors: Falguni Roy, Yiduo Shen, Na Zhao, Xiaofeng Ding, Md. Omar Faruk,
- Abstract要約: 本研究では,ジェンダーステレオタイプが映画レコメンデーションシステムに与える影響について,特定の攻撃シナリオを通して検討した。
攻撃者は、映画の嗜好に関する性別ステレオタイプを利用し、ユーザのフィードバックデータを分析することにより、ユーザの性別、プライベート属性を決定する。
この調査では、MovieLens 1MとYahoo!
- 参考スコア(独自算出の注目度): 2.4104718274685
- License:
- Abstract: The movie recommender system typically leverages user feedback to provide personalized recommendations that align with user preferences and increase business revenue. This study investigates the impact of gender stereotypes on such systems through a specific attack scenario. In this scenario, an attacker determines users' gender, a private attribute, by exploiting gender stereotypes about movie preferences and analyzing users' feedback data, which is either publicly available or observed within the system. The study consists of two phases. In the first phase, a user study involving 630 participants identified gender stereotypes associated with movie genres, which often influence viewing choices. In the second phase, four inference algorithms were applied to detect gender stereotypes by combining the findings from the first phase with users' feedback data. Results showed that these algorithms performed more effectively than relying solely on feedback data for gender inference. Additionally, we quantified the extent of gender stereotypes to evaluate their broader impact on digital computational science. The latter part of the study utilized two major movie recommender datasets: MovieLens 1M and Yahoo!Movie. Detailed experimental information is available on our GitHub repository: https://github.com/fr-iit/GSMRS
- Abstract(参考訳): 映画のレコメンデーションシステムは通常、ユーザのフィードバックを利用して、ユーザの好みに合わせてパーソナライズされたレコメンデーションを提供する。
本研究では,特定の攻撃シナリオを通じて,性別のステレオタイプがこのようなシステムに与える影響について検討する。
このシナリオでは、攻撃者は映画の嗜好に関する性別ステレオタイプを利用してユーザの性別、個人の属性を判断し、ユーザのフィードバックデータを分析する。
研究は2つの段階からなる。
第1フェーズでは、630人の被験者によるユーザスタディにより、映画ジャンルに関連するジェンダーステレオタイプが特定され、しばしば視聴選択に影響を与える。
第2フェーズでは,第1フェーズからの発見とユーザのフィードバックデータを組み合わせて,性別ステレオタイプを検出するために,4つの推論アルゴリズムを適用した。
その結果、これらのアルゴリズムは、性別推定のためのフィードバックデータにのみ依存するのではなく、より効果的に実行された。
さらに,ジェンダーステレオタイプがデジタル計算科学に与える影響を定量的に評価した。
研究の後半では、MovieLens 1MとYahoo!
詳細な実験情報はGitHubリポジトリで公開されている。
関連論文リスト
- On the "Illusion" of Gender Bias in Face Recognition: Explaining the Fairness Issue Through Non-demographic Attributes [7.602456562464879]
顔認識システムは、ユーザの性別に基づいて、かなりの精度の差を示す。
顔の属性を効果的にデコレーションし、集約し、バイアスの少ない性別分析を可能にするツールチェーンを提案する。
実験の結果,男女のイメージが特定の属性を共有すると,男女差は消失することがわかった。
論文 参考訳(メタデータ) (2025-01-21T10:21:19Z) - It's Not You, It's Me: The Impact of Choice Models and Ranking Strategies on Gender Imbalance in Music Recommendation [7.94306624344211]
本研究では、ランク付け戦略とユーザー選択モデルがジェンダーフェアネス指標に及ぼす影響について検討する。
再ランク戦略は、ユーザの選択モデルよりも、時間の経過とともにリコメンデーションフェアネスに影響を及ぼす。
論文 参考訳(メタデータ) (2024-08-22T11:44:46Z) - GenderBias-\emph{VL}: Benchmarking Gender Bias in Vision Language Models via Counterfactual Probing [72.0343083866144]
本稿では,GenderBias-emphVLベンチマークを用いて,大規模視覚言語モデルにおける職業関連性バイアスの評価を行う。
ベンチマークを用いて15のオープンソースLVLMと最先端の商用APIを広範囲に評価した。
既存のLVLMでは男女差が広くみられた。
論文 参考訳(メタデータ) (2024-06-30T05:55:15Z) - Will the Prince Get True Love's Kiss? On the Model Sensitivity to Gender
Perturbation over Fairytale Texts [87.62403265382734]
近年の研究では、伝統的な妖精は有害な性バイアスを伴っていることが示されている。
本研究は,ジェンダーの摂動に対する頑健さを評価することによって,言語モデルの学習バイアスを評価することを目的とする。
論文 参考訳(メタデータ) (2023-10-16T22:25:09Z) - The Impact of Debiasing on the Performance of Language Models in
Downstream Tasks is Underestimated [70.23064111640132]
我々は、幅広いベンチマークデータセットを用いて、複数の下流タスクのパフォーマンスに対するデバイアスの影響を比較した。
実験により、デバイアスの効果は全てのタスクにおいて一貫して見積もられていることが示されている。
論文 参考訳(メタデータ) (2023-09-16T20:25:34Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Much Ado About Gender: Current Practices and Future Recommendations for
Appropriate Gender-Aware Information Access [3.3903891679981593]
情報アクセス研究(と開発)は時にジェンダーを利用する。
この研究は、ジェンダーが何であるかの現在の理解と一致していないジェンダーについて様々な仮定を下している。
私たちがレビューするほとんどの論文は、性別が2つのカテゴリに分けることができないことを認めたとしても、性別のバイナリな概念に依存しています。
論文 参考訳(メタデータ) (2023-01-12T01:21:02Z) - Twitter-Based Gender Recognition Using Transformers [2.539920413471809]
画像やつぶやきからユーザの性別を予測するためのトランスフォーマーに基づくモデルを提案する。
そこで我々は,2方向変換(ViTBERT)に基づく別のモデルを微調整し,ユーザの性別をつぶやきで認識する。
組み合わせモデルは画像分類モデルとテキスト分類モデルの精度をそれぞれ6.98%と4.43%改善する。
論文 参考訳(メタデータ) (2022-04-24T19:58:42Z) - Stereotype and Skew: Quantifying Gender Bias in Pre-trained and
Fine-tuned Language Models [5.378664454650768]
本稿では,文脈言語モデルにおける性別バイアスの定量化と分析を行う,スキューとステレオタイプという2つの直感的な指標を提案する。
性別のステレオタイプは、アウト・オブ・ボックスモデルにおける性別の歪とほぼ負の相関関係にあり、これらの2種類のバイアスの間にトレードオフが存在することを示唆している。
論文 参考訳(メタデータ) (2021-01-24T10:57:59Z) - Gender Stereotype Reinforcement: Measuring the Gender Bias Conveyed by
Ranking Algorithms [68.85295025020942]
本稿では,性別ステレオタイプをサポートする検索エンジンの傾向を定量化するジェンダーステレオタイプ強化(GSR)尺度を提案する。
GSRは、表現上の害を定量化できる情報検索のための、最初の特別に調整された尺度である。
論文 参考訳(メタデータ) (2020-09-02T20:45:04Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。