論文の概要: On Mitigating Affinity Bias through Bandits with Evolving Biased Feedback
- arxiv url: http://arxiv.org/abs/2503.05662v1
- Date: Fri, 07 Mar 2025 18:23:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-10 12:24:15.941681
- Title: On Mitigating Affinity Bias through Bandits with Evolving Biased Feedback
- Title(参考訳): バイアスフィードバックの進化を伴う帯域通過による親和性バイアスの緩和について
- Authors: Matthew Faw, Constantine Caramanis, Jessica Hoffmann,
- Abstract要約: アフィニティバイアス(Affinity bias)は、無意識の偏見の要素であり、私たちと同じような人を好むことにつながる。
今日の雇用者が明日の雇用委員会の一員になる世界では、アフィニティバイアスがこのフィードバックループにどのように影響するかを理解する(そして緩和する)ことに特に関心があります。
我々はこれらの2つの特徴を示す新しいバンディットの変種を導入し、アフィニティ・バンディットと呼ぶ。
- 参考スコア(独自算出の注目度): 21.345255802383882
- License:
- Abstract: Unconscious bias has been shown to influence how we assess our peers, with consequences for hiring, promotions and admissions. In this work, we focus on affinity bias, the component of unconscious bias which leads us to prefer people who are similar to us, despite no deliberate intention of favoritism. In a world where the people hired today become part of the hiring committee of tomorrow, we are particularly interested in understanding (and mitigating) how affinity bias affects this feedback loop. This problem has two distinctive features: 1) we only observe the biased value of a candidate, but we want to optimize with respect to their real value 2) the bias towards a candidate with a specific set of traits depends on the fraction of people in the hiring committee with the same set of traits. We introduce a new bandits variant that exhibits those two features, which we call affinity bandits. Unsurprisingly, classical algorithms such as UCB often fail to identify the best arm in this setting. We prove a new instance-dependent regret lower bound, which is larger than that in the standard bandit setting by a multiplicative function of $K$. Since we treat rewards that are time-varying and dependent on the policy's past actions, deriving this lower bound requires developing proof techniques beyond the standard bandit techniques. Finally, we design an elimination-style algorithm which nearly matches this regret, despite never observing the real rewards.
- Abstract(参考訳): 無意識バイアスは、採用、昇進、入隊の結果として、仲間の評価方法に影響を与えることが示されている。
本研究では,無意識的偏見の要素である親和性偏見に着目し,無意識的偏見の意図は持たないものの,親和性偏見(affinity bias)に着目する。
今日の雇用者が明日の雇用委員会の一員になる世界では、アフィニティバイアスがこのフィードバックループにどのように影響するかを理解する(そして緩和する)ことに特に関心があります。
この問題には2つの特徴がある。
1)候補のバイアス値のみを観察するが、実際の値に関して最適化したい。
2) 特定の特質を持つ候補者に対する偏見は、同一の特質を持つ採用委員会の人数に左右される。
我々はこれらの2つの特徴を示す新しいバンディットの変種を導入し、それをアフィニティ・バンディット(affinity bandits)と呼ぶ。
当然のことながら、UPBのような古典的なアルゴリズムは、この設定で最高の腕を特定するのに失敗することが多い。
K$の乗法関数による標準帯域設定よりも大きい、新しいインスタンス依存の後悔の下限を証明します。
我々は、政策の過去の行動に依存する報酬を時変で扱うので、この下限を導き出すには、標準的な盗賊技法を超えて証明技術を開発する必要がある。
最後に、実際の報酬を決して見ていないにもかかわらず、この後悔にほぼ一致する除去スタイルのアルゴリズムを設計する。
関連論文リスト
- ALBAR: Adversarial Learning approach to mitigate Biases in Action Recognition [52.537021302246664]
行動認識モデルは、しばしば背景バイアス(背景の手がかりに基づく行動の推測)と前景バイアス(主題の外観に依存する)に悩まされる。
本稿では,前景や背景のバイアスを,バイアス特性の専門知識を必要とせずに軽減する,新たな対人訓練手法であるALBARを提案する。
我々は,提案手法を確立された背景と前景のバイアスプロトコル上で評価し,新しい最先端のバイアスプロトコルを設定し,HMDB51では12%以上のデバイアス性能を向上した。
論文 参考訳(メタデータ) (2025-01-31T20:47:06Z) - Multimodal Clickbait Detection by De-confounding Biases Using Causal Representation Inference [35.82337433829]
本稿では,ウェブ上でのクリックベイト投稿の検出に焦点をあてる。
これらの投稿は、ユーザーが利益のためにクリックすることを誤解させるために、様々なモダリティで目を引く偽情報を使うことが多い。
悪質なクリエーターは、無関係なノンベイトコンテンツを餌のポストに追加するためにトリックを使っており、検知器を騙すために合法的な服装を施している。
論文 参考訳(メタデータ) (2024-10-10T07:29:56Z) - Nearly Optimal Algorithms for Contextual Dueling Bandits from Adversarial Feedback [58.66941279460248]
人からのフィードバックから学ぶことは、大言語モデル(LLM)のような生成モデルを調整する上で重要な役割を果たす
本稿では,このドメイン内のモデルについて考察する。-文脈的デュエルバンディット(contextual dueling bandits)と,正の選好ラベルを相手によって反転させることができる対向フィードバック(reversarial feedback)について考察する。
本稿では,不確実性重み付き最大推定に基づく頑健なコンテキストデュエルバンドイット(RCDB)を提案する。
論文 参考訳(メタデータ) (2024-04-16T17:59:55Z) - Causal Intervention for Fairness in Multi-behavior Recommendation [40.938727601434195]
異なるユーザ行動(例えば変換率)間の関係は、実際にはアイテムの品質を反映している、と我々は主張する。
本稿では,不公平な問題に対処するため,複数のユーザの行動を考慮した人気バイアスを軽減することを提案する。
論文 参考訳(メタデータ) (2022-09-10T04:21:25Z) - Cross Pairwise Ranking for Unbiased Item Recommendation [57.71258289870123]
我々はCPR(Cross Pairwise Ranking)という新しい学習パラダイムを開発する。
CPRは、露出メカニズムを知らずに不偏の推奨を達成する。
理論的には、この方法が学習に対するユーザ/イテムの適合性の影響を相殺することを証明する。
論文 参考訳(メタデータ) (2022-04-26T09:20:27Z) - The SAME score: Improved cosine based bias score for word embeddings [49.75878234192369]
埋め込みにおけるセマンティックバイアスのための新しいバイアススコアであるPetを紹介した。
本研究は,下水道作業における意味バイアスを測定し,社会的バイアスの潜在的な原因を特定することができることを示す。
論文 参考訳(メタデータ) (2022-03-28T09:28:13Z) - The price of unfairness in linear bandits with biased feedback [62.25313751895011]
線形帯域フィードバックによる逐次意思決定の問題点について検討する。
その結果,不偏フィードバック下で得られたdT 1/2 log(T) の後悔率よりも最悪の後悔率が高いことがわかった。
興味深いことに、ギャップ依存率によって、問題はバイアスのないものほど難しくない非自明なインスタンスの存在が明らかになる。
論文 参考訳(メタデータ) (2022-03-18T08:03:20Z) - Gradient Based Activations for Accurate Bias-Free Learning [22.264226961225003]
このバイアス・精度のトレードオフを改善するために、偏微分器が実際に利用できることを示す。
具体的には、判別器の勾配を用いた特徴マスキング手法を用いる。
この単純なアプローチはバイアスを低減し、精度を大幅に向上させるのに有効であることを示す。
論文 参考訳(メタデータ) (2022-02-17T00:30:40Z) - Confidence-Budget Matching for Sequential Budgeted Learning [69.77435313099366]
問合せ予算で意思決定問題を定式化する。
我々は,多腕バンディット,線形バンディット,強化学習問題を考察する。
我々は,CBMに基づくアルゴリズムが逆性の存在下で良好に動作することを示す。
論文 参考訳(メタデータ) (2021-02-05T19:56:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。