論文の概要: Fairness Dynamics in Digital Economy Platforms with Biased Ratings
- arxiv url: http://arxiv.org/abs/2602.16695v1
- Date: Wed, 18 Feb 2026 18:41:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-19 15:58:30.68624
- Title: Fairness Dynamics in Digital Economy Platforms with Biased Ratings
- Title(参考訳): バイアス付きレーティングを用いたデジタル経済プラットフォームにおける公正度ダイナミクス
- Authors: J. Martin Smit, Fernando P. Santos,
- Abstract要約: 我々は、デジタルプラットフォームが格付けに基づく差別を永続的に、あるいは対処する方法について研究する。
この結果から,ユーザエクスペリエンスと公平性の根本的なトレードオフが示される。
また,検索結果の人口動態を調整して介入することが,不公平を抑えるための極めて効果的な方法であることを示す。
- 参考スコア(独自算出の注目度): 50.29721091981893
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The digital services economy consists of online platforms that facilitate interactions between service providers and consumers. This ecosystem is characterized by short-term, often one-off, transactions between parties that have no prior familiarity. To establish trust among users, platforms employ rating systems which allow users to report on the quality of their previous interactions. However, while arguably crucial for these platforms to function, rating systems can perpetuate negative biases against marginalised groups. This paper investigates how to design platforms around biased reputation systems, reducing discrimination while maintaining incentives for all service providers to offer high quality service for users. We introduce an evolutionary game theoretical model to study how digital platforms can perpetuate or counteract rating-based discrimination. We focus on the platforms' decisions to promote service providers who have high reputations or who belong to a specific protected group. Our results demonstrate a fundamental trade-off between user experience and fairness: promoting highly-rated providers benefits users, but lowers the demand for marginalised providers against which the ratings are biased. Our results also provide evidence that intervening by tuning the demographics of the search results is a highly effective way of reducing unfairness while minimally impacting users. Furthermore, we show that even when precise measurements on the level of rating bias affecting marginalised service providers is unavailable, there is still potential to improve upon a recommender system which ignores protected characteristics. Altogether, our model highlights the benefits of proactive anti-discrimination design in systems where ratings are used to promote cooperative behaviour.
- Abstract(参考訳): デジタルサービス経済は、サービスプロバイダとコンシューマ間のインタラクションを促進するオンラインプラットフォームで構成されています。
このエコシステムの特徴は、前もって親しみのない当事者間の短期的、しばしば1対1の取引である。
プラットフォームは、ユーザ間の信頼を確立するために、以前のインタラクションの品質を報告できるレーティングシステムを採用している。
しかしながら、これらのプラットフォームが機能するためには間違いなく不可欠であるが、レーティングシステムは、疎外されたグループに対して負のバイアスを持続させることができる。
本稿では,すべてのサービスプロバイダが高品質なサービスをユーザに提供するインセンティブを維持しつつ,偏見のある評価システムに関するプラットフォームの設計方法を検討する。
我々は,デジタルプラットフォームが評価に基づく差別を永続的あるいは反作用させる方法を研究するために,進化ゲーム理論モデルを導入する。
我々は、高い評価や特定の保護グループに属するサービスプロバイダを促進するためのプラットフォームの決定に焦点を合わせます。
高い評価を受けたプロバイダの促進はユーザに恩恵を与えるが、評価が偏っているプロバイダに対する需要は減少する。
また,検索結果の人口動態の調整による介入は,ユーザへの影響を最小限に抑えつつ,不公平さを抑える極めて効果的な方法であることを示す。
さらに, 限界化サービスプロバイダに影響を及ぼす評価バイアスの程度を正確に測定しても, 保護特性を無視したレコメンデータシステムの改善が期待できることを示す。
また, 協調行動を促進するために評価が用いられるシステムにおいて, 積極的アンチ・差別設計の利点を強調した。
関連論文リスト
- Reducing Popularity Influence by Addressing Position Bias [0.0]
位置偏差は,フィードバックループを通じて位置偏差によって引き起こされる項目の人気を効果的に低減できることを示す。
ユーザのエンゲージメントや財務指標を損なうことなく、位置偏りがアソシエーション利用を著しく改善できることを示す。
論文 参考訳(メタデータ) (2024-12-11T21:16:37Z) - Interpolating Item and User Fairness in Multi-Sided Recommendations [13.635310806431198]
我々は、新しいフェアレコメンデーションフレームワーク、問題(FAIR)を紹介します。
本稿では,リアルタイム学習とフェアレコメンデーションを同時に行う低レベルのアルゴリズム形式を提案する。
我々は,プラットフォーム収益を維持する上でのフレームワークと手法の有効性を実証するとともに,アイテムとユーザ双方に望ましい公平性を確保した。
論文 参考訳(メタデータ) (2023-06-12T15:00:58Z) - A Survey on Fairness-aware Recommender Systems [59.23208133653637]
本稿では,様々なレコメンデーションシナリオにおいてフェアネスの概念を提示し,現在の進歩を包括的に分類し,レコメンデーションシステムのさまざまな段階におけるフェアネスを促進するための典型的な手法を紹介する。
次に、フェアネスを意識したレコメンデーションシステムが実業界における産業応用に与える影響について検討する。
論文 参考訳(メタデータ) (2023-06-01T07:08:22Z) - Consumer-side Fairness in Recommender Systems: A Systematic Survey of
Methods and Evaluation [1.4123323039043334]
機械学習手法における差別意識の高まりは、学界と産業の両方を動機付け、レコメンデーションシステムにおける公正性の確保について研究した。
推薦制度では、そのような問題は職業推薦によってよく例示されており、歴史的データの偏見は、1つの性別から低い賃金、あるいはステレオタイプの普及に関する推薦制度につながる可能性がある。
本調査は、リコメンデーションシステムにおける消費者側の公正性に関する現在の研究の体系的概要と議論である。
論文 参考訳(メタデータ) (2023-05-16T10:07:41Z) - FedGRec: Federated Graph Recommender System with Lazy Update of Latent
Embeddings [108.77460689459247]
プライバシー問題を軽減するためのフェデレートグラフレコメンダシステム(FedGRec)を提案する。
本システムでは,ユーザとサーバは,ユーザとアイテムに対する遅延埋め込みを明示的に記憶する。
我々は,遅延埋め込みを相互作用グラフの欠落のプロキシとして用いることの有効性を検証するために,広範な実験的な評価を行った。
論文 参考訳(メタデータ) (2022-10-25T01:08:20Z) - Who Pays? Personalization, Bossiness and the Cost of Fairness [24.75616876832476]
提供者側の公正を懸念する公正を意識したレコメンデータシステムは、保護された提供者のグループに商品や製品を宣伝する公正な機会があることを確実にする。
このようなソリューションが実装されると、インタラクションの消費者側が生み出す「公正さのコスト」がある。
本稿では, ボトムネスの概念を導入し, フェアネスを意識した推薦に応用し, この戦略的インセンティブを減らすための戦略について議論する。
論文 参考訳(メタデータ) (2022-09-08T21:47:10Z) - Competition, Alignment, and Equilibria in Digital Marketplaces [97.03797129675951]
プラットフォームアクションがバンディットアルゴリズムであり,両プラットフォームがユーザ参加を競うデュオポリー市場について検討する。
私たちの主な発見は、この市場における競争は、市場の結果をユーザーユーティリティと完全に一致させるものではないということです。
論文 参考訳(メタデータ) (2022-08-30T17:43:58Z) - Joint Multisided Exposure Fairness for Recommendation [76.75990595228666]
本稿では,消費者と生産者の両面から共同で問題をモデル化する,露出公正度尺度のファミリを定式化する。
具体的には、双方の利害関係者に対するグループ属性について、個別のユーザや項目を超えて、より体系的なバイアスを推奨するフェアネスの懸念を識別し緩和する。
論文 参考訳(メタデータ) (2022-04-29T19:13:23Z) - Statistical discrimination in learning agents [64.78141757063142]
統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
論文 参考訳(メタデータ) (2021-10-21T18:28:57Z) - Two-Sided Fairness in Non-Personalised Recommendations [6.403167095324894]
ユーザフェアネスと組織フェアネスという,2つの特定のフェアネスに関する問題(従来は別々に研究されていた)について論じる。
ユーザフェアネスについては、社会的選択理論、すなわち、ユーザ選択をより良く表現するために知られている様々な投票ルールの手法を用いてテストする。
投票ルールに基づく推薦の結果を分析した結果、よく知られた投票ルールはユーザ側より優れているが、高いバイアス値を示すことがわかった。
論文 参考訳(メタデータ) (2020-11-10T18:11:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。