論文の概要: Addressing bias in Recommender Systems: A Case Study on Data Debiasing Techniques in Mobile Games
- arxiv url: http://arxiv.org/abs/2411.18716v1
- Date: Wed, 27 Nov 2024 19:45:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-02 15:19:33.885748
- Title: Addressing bias in Recommender Systems: A Case Study on Data Debiasing Techniques in Mobile Games
- Title(参考訳): レコメンダシステムのバイアスに対処する:モバイルゲームにおけるデータデバイアス手法の事例研究
- Authors: Yixiong Wang, Maria Paskevich, Hui Wang,
- Abstract要約: このケーススタディは,モバイルゲームにおけるモデルベースレコメンデーションに特有のデータセット内の潜在的なバイアスを特定し,分類することを目的としている。
既存の文献における偏見のテクニックをレビューし、暗黙のフィードバックによって収集された実世界のデータ上での有効性を評価する。
- 参考スコア(独自算出の注目度): 3.18175475159604
- License:
- Abstract: The mobile gaming industry, particularly the free-to-play sector, has been around for more than a decade, yet it still experiences rapid growth. The concept of games-as-service requires game developers to pay much more attention to recommendations of content in their games. With recommender systems (RS), the inevitable problem of bias in the data comes hand in hand. A lot of research has been done on the case of bias in RS for online retail or services, but much less is available for the specific case of the game industry. Also, in previous works, various debiasing techniques were tested on explicit feedback datasets, while it is much more common in mobile gaming data to only have implicit feedback. This case study aims to identify and categorize potential bias within datasets specific to model-based recommendations in mobile games, review debiasing techniques in the existing literature, and assess their effectiveness on real-world data gathered through implicit feedback. The effectiveness of these methods is then evaluated based on their debiasing quality, data requirements, and computational demands.
- Abstract(参考訳): モバイルゲーム業界、特にフリー・ツー・プレイ分野は10年以上前から存在するが、依然として急速に成長している。
ゲーム・アズ・サービスの概念では、ゲーム開発者はゲーム内のコンテンツのレコメンデーションにもっと注意を払う必要がある。
推薦システム(RS)では、データのバイアスが必然的に発生する。
オンライン小売やサービスに対するRSの偏見については、多くの研究が行われてきたが、ゲーム産業の特定のケースではほとんど利用できない。
また,モバイルゲームデータでは暗黙のフィードバックしか持たないのが一般的であるのに対し,前回の研究では,明示的なフィードバックデータセット上で様々なデバイアス手法がテストされた。
このケーススタディは,モバイルゲームにおけるモデルベースレコメンデーションに特有のデータセット内の潜在的なバイアスを特定し,分類することを目的としており,既存の文献のデバイアス手法をレビューし,暗黙のフィードバックによって収集された実世界のデータに対するそれらの効果を評価する。
これらの手法の有効性は, 劣化する品質, データ要求, 計算要求に基づいて評価される。
関連論文リスト
- Going Beyond Popularity and Positivity Bias: Correcting for Multifactorial Bias in Recommender Systems [74.47680026838128]
ユーザインタラクションデータとレコメンダシステム(RS)の2つの典型的なバイアスは、人気バイアスと肯定バイアスである。
項目と評価値の双方に影響される多因子選択バイアスについて検討する。
分散を低減し、最適化の堅牢性を向上させるため、スムースで交互に勾配降下する手法を提案する。
論文 参考訳(メタデータ) (2024-04-29T12:18:21Z) - Take Care of Your Prompt Bias! Investigating and Mitigating Prompt Bias in Factual Knowledge Extraction [56.17020601803071]
近年の研究では、事前学習言語モデル(PLM)が、事実知識抽出において「急激なバイアス」に悩まされていることが示されている。
本稿では,突発バイアスを徹底的に調査し緩和することにより,既存のベンチマークの信頼性を向上させることを目的とする。
論文 参考訳(メタデータ) (2024-03-15T02:04:35Z) - Targeted Data Augmentation for bias mitigation [0.0]
我々は、TDA(Targeted Data Augmentation)と呼ばれるバイアスに対処するための、新しく効率的なアプローチを導入する。
バイアスを除去する面倒な作業とは異なり、本手法は代わりにバイアスを挿入することを提案し、結果として性能が向上する。
偏見を特定するために,臨床皮膚病変のデータセットと男女の顔のデータセットの2つの多様なデータセットを注釈した。
論文 参考訳(メタデータ) (2023-08-22T12:25:49Z) - Data Bias Management [17.067962372238135]
私たちは、データのバイアスがエンドユーザに与える影響、バイアスの発生源、そして、その上で何をすべきかという視点を示します。
データバイアスは、すべてのケースにおいて必ずしも取り除くべきものではなく、代わりに研究の注意がバイアス除去からバイアス管理に移行するべきだ、と私たちは主張する。
論文 参考訳(メタデータ) (2023-05-15T10:07:27Z) - Unbiased Learning to Rank with Biased Continuous Feedback [5.561943356123711]
雑音フィードバックに基づいて相対関係を正確にモデル化するために,非バイアス学習 to ランク(LTR)アルゴリズムを検証した。
パーソナライズされた高品質なレコメンデーション結果を提供するために、レコメンダシステムはカテゴリと継続的なバイアスフィードバックの両方をモデルにする必要があります。
位置バイアス、信頼バイアス、ユーザ関係を明確に区別するために、ペアワイズ信頼バイアスを導入します。
Tencent Newsの公開ベンチマークデータセットと大規模レコメンデータシステムの内部ライブトラフィックの実験結果は、連続ラベルに対して優れた結果を示している。
論文 参考訳(メタデータ) (2023-03-08T02:14:08Z) - Whole Page Unbiased Learning to Rank [59.52040055543542]
アンバイアスド・ラーニング・トゥ・ランク(ULTR)アルゴリズムは、バイアスド・クリックデータを用いたアンバイアスド・ランキングモデルを学ぶために提案される。
本稿では,BALというアルゴリズムをランク付けするバイアス非依存学習を提案する。
実世界のデータセットによる実験結果から,BALの有効性が検証された。
論文 参考訳(メタデータ) (2022-10-19T16:53:08Z) - Mitigating Representation Bias in Action Recognition: Algorithms and
Benchmarks [76.35271072704384]
ディープラーニングモデルは、稀なシーンやオブジェクトを持つビデオに適用すると、パフォーマンスが悪くなります。
この問題にはアルゴリズムとデータセットの2つの異なる角度から対処する。
偏りのある表現は、他のデータセットやタスクに転送するとより一般化できることを示す。
論文 参考訳(メタデータ) (2022-09-20T00:30:35Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Representation Bias in Data: A Survey on Identification and Resolution
Techniques [26.142021257838564]
データ駆動型アルゴリズムは、それらが扱うデータと同程度にしか機能しないが、データセット、特にソーシャルデータはしばしば、マイノリティを適切に表現できない。
データにおける表現バイアスは、歴史的差別から、データ取得と作成方法におけるバイアスのサンプリングまで、さまざまな理由により起こりうる。
本稿では,後日どのように消費されるかに関わらず,表現バイアスをデータセットの特徴として同定し,解決する方法についての文献をレビューする。
論文 参考訳(メタデータ) (2022-03-22T16:30:22Z) - Towards Measuring Bias in Image Classification [61.802949761385]
畳み込みニューラルネットワーク(CNN)は、主要なコンピュータビジョンタスクの最先端技術となっている。
しかし、複雑な構造のため、その決定は産業世界の何らかの文脈での使用を制限するかを理解することは困難である。
帰属マップによるデータのバイアスを明らかにするための体系的なアプローチを提案する。
論文 参考訳(メタデータ) (2021-07-01T10:50:39Z) - AutoDebias: Learning to Debias for Recommendation [43.84313723394282]
今回提案するtextitAotoDebiasは、他の(小さな)均一なデータセットを利用してデバイアスパラメータを最適化する。
我々は、AutoDebiasの一般化を導き、適切なデバイアス戦略を得る能力を証明する。
論文 参考訳(メタデータ) (2021-05-10T08:03:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。