論文の概要: Fairness-Aware Online Personalization
- arxiv url: http://arxiv.org/abs/2007.15270v2
- Date: Sun, 6 Sep 2020 10:03:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-05 13:15:34.192358
- Title: Fairness-Aware Online Personalization
- Title(参考訳): 公正なオンラインパーソナライゼーション
- Authors: G Roshan Lal and Sahin Cem Geyik and Krishnaram Kenthapadi
- Abstract要約: 個人格付けを含むオンラインパーソナライズ設定における公平性について検討する。
最初に、オンラインパーソナライゼーションが、ユーザが応答に偏っている場合、モデルが不公平に行動することを学ぶことを実証する。
次に、公正な制約の下でパーソナライズされたモデルを学習する問題を定式化し、機械学習におけるバイアスを軽減するための正規化に基づくアプローチを提案する。
- 参考スコア(独自算出の注目度): 16.320648868892526
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Decision making in crucial applications such as lending, hiring, and college
admissions has witnessed increasing use of algorithmic models and techniques as
a result of a confluence of factors such as ubiquitous connectivity, ability to
collect, aggregate, and process large amounts of fine-grained data using cloud
computing, and ease of access to applying sophisticated machine learning
models. Quite often, such applications are powered by search and recommendation
systems, which in turn make use of personalized ranking algorithms. At the same
time, there is increasing awareness about the ethical and legal challenges
posed by the use of such data-driven systems. Researchers and practitioners
from different disciplines have recently highlighted the potential for such
systems to discriminate against certain population groups, due to biases in the
datasets utilized for learning their underlying recommendation models. We
present a study of fairness in online personalization settings involving the
ranking of individuals. Starting from a fair warm-start machine-learned model,
we first demonstrate that online personalization can cause the model to learn
to act in an unfair manner if the user is biased in his/her responses. For this
purpose, we construct a stylized model for generating training data with
potentially biased features as well as potentially biased labels and quantify
the extent of bias that is learned by the model when the user responds in a
biased manner as in many real-world scenarios. We then formulate the problem of
learning personalized models under fairness constraints and present a
regularization based approach for mitigating biases in machine learning. We
demonstrate the efficacy of our approach through extensive simulations with
different parameter settings. Code:
https://github.com/groshanlal/Fairness-Aware-Online-Personalization
- Abstract(参考訳): 貸付、雇用、大学入学などの重要な応用における意思決定は、ユビキタス接続、クラウドコンピューティングを使用した大量のきめ細かいデータ収集、集約、処理、洗練された機械学習モデルの適用へのアクセスの容易化など、さまざまな要因によって、アルゴリズムモデルとテクニックの使用の増加を目撃している。
多くの場合、このようなアプリケーションは検索とレコメンデーションシステムを利用しており、パーソナライズされたランキングアルゴリズムを利用している。
同時に、このようなデータ駆動システムの使用によって引き起こされる倫理的および法的課題に対する意識が高まっている。
さまざまな分野の研究者や実践者が最近、このようなシステムが特定の集団に対して識別する可能性を強調している。
個人格付けを含むオンラインパーソナライズ設定における公平性について検討する。
公平なウォームスタートマシン学習モデルからはじめて、オンラインパーソナライゼーションが、ユーザが応答に偏っている場合、モデルが不公平な方法で行動することを学ぶことを実証する。
この目的のために,潜在的なバイアス付き特徴と潜在的なバイアス付きラベルを持つトレーニングデータを生成するためのスタイリングモデルを構築し,ユーザが多くの現実のシナリオのようにバイアスに応答するときのモデルによって学習されるバイアスの程度を定量化する。
次に、公正な制約の下でパーソナライズされたモデルを学習する問題を定式化し、機械学習におけるバイアスを軽減するための正規化に基づくアプローチを提案する。
パラメータ設定の異なる広範囲なシミュレーションにより,本手法の有効性を示す。
コード:https://github.com/groshanlal/Fairness-Aware-Online-Personalization
関連論文リスト
- Understanding trade-offs in classifier bias with quality-diversity optimization: an application to talent management [2.334978724544296]
公正なAIモデルを開発する上での大きな課題は、そのようなモデルをトレーニングする上で利用可能なデータのバイアスにある。
本稿では,データセットに固有のバイアスを可視化し,公平性と正確性の間の潜在的なトレードオフを理解する方法を提案する。
論文 参考訳(メタデータ) (2024-11-25T22:14:02Z) - Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Non-Invasive Fairness in Learning through the Lens of Data Drift [88.37640805363317]
データや学習アルゴリズムを変更することなく、機械学習モデルの公平性を向上する方法を示す。
異なる集団間の傾向のばらつきと、学習モデルと少数民族間の連続的な傾向は、データドリフトと類似している。
このドリフトを解決するための2つの戦略(モデル分割とリウィーディング)を探索し、基礎となるデータに対するモデル全体の適合性を改善することを目的としている。
論文 参考訳(メタデータ) (2023-03-30T17:30:42Z) - Debiasing Vision-Language Models via Biased Prompts [79.04467131711775]
本稿では,テキスト埋め込みにおけるバイアスのある方向を投影することで,視覚言語基盤モデルを疎外する一般的な手法を提案する。
偏平投影行列を組み込んだテキストのみをデバイアスすることで、ロバストな分類器と公正な生成モデルが得られることを示す。
論文 参考訳(メタデータ) (2023-01-31T20:09:33Z) - Synthetic Model Combination: An Instance-wise Approach to Unsupervised
Ensemble Learning [92.89846887298852]
ラベル付きデータのトレーニングセットから学ぶ機会のない、新しいテストデータに対する予測を検討する。
専門家モデルのセットと予測へのアクセスと、トレーニングに使用するデータセットに関する制限された情報を提供すること。
論文 参考訳(メタデータ) (2022-10-11T10:20:31Z) - Improving Fairness and Privacy in Selection Problems [21.293367386282902]
教師付き学習モデルの公平性とプライバシーの両方を改善するための後処理のステップとして、微分的プライベート指数関数機構を使用することの可能性を検討する。
この指数関数的メカニズムは, プライバシと公平性の両方を向上し, ポストプロセッシングを伴わないモデルと比較して, 精度がわずかに低下することを示した。
論文 参考訳(メタデータ) (2020-12-07T15:55:28Z) - Learning from others' mistakes: Avoiding dataset biases without modeling
them [111.17078939377313]
最先端自然言語処理(NLP)モデルは、意図したタスクをターゲットとする機能ではなく、データセットのバイアスや表面形状の相関をモデル化することを学ぶことが多い。
これまでの研究は、バイアスに関する知識が利用できる場合に、これらの問題を回避するための効果的な方法を示してきた。
本稿では,これらの問題点を無視する学習モデルについて述べる。
論文 参考訳(メタデータ) (2020-12-02T16:10:54Z) - A survey of bias in Machine Learning through the prism of Statistical
Parity for the Adult Data Set [5.277804553312449]
偏見を自動決定にどのように導入できるかを理解することの重要性を示す。
まず、公正学習問題、特に二項分類設定における数学的枠組みについて述べる。
そこで,本研究では,現実およびよく知られた成人所得データセットの標準差分効果指標を用いて,偏見の有無を定量化することを提案する。
論文 参考訳(メタデータ) (2020-03-31T14:48:36Z) - Fairness-Aware Learning with Prejudice Free Representations [2.398608007786179]
本稿では,潜在性識別特徴を効果的に識別し,治療できる新しいアルゴリズムを提案する。
このアプローチは、モデルパフォーマンスを改善するために差別のない機能を集めるのに役立つ。
論文 参考訳(メタデータ) (2020-02-26T10:06:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。