論文の概要: Foundation Models at Work: Fine-Tuning for Fairness in Algorithmic Hiring
- arxiv url: http://arxiv.org/abs/2501.07324v1
- Date: Mon, 13 Jan 2025 13:36:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-14 14:23:01.132178
- Title: Foundation Models at Work: Fine-Tuning for Fairness in Algorithmic Hiring
- Title(参考訳): 職場における基礎モデル:アルゴリズム採用の公正性のための微調整
- Authors: Buse Sibel Korkmaz, Rahul Nair, Elizabeth M. Daly, Evangelos Anagnostopoulos, Christos Varytimidis, Antonio del Rio Chanona,
- Abstract要約: 対象の微調整に強化学習を活用するAutoRefineを提案する。
本稿では,言語バイアスがレコメンデーションシステムに影響を及ぼすアルゴリズム的採用プラットフォームにおいて発生する問題の方法を示す。
本モデルは,多様性と公正度基準を満たすために,職務記述におけるバイアスを検出し,規制する。
- 参考スコア(独自算出の注目度): 5.482898079941062
- License:
- Abstract: Foundation models require fine-tuning to ensure their generative outputs align with intended results for specific tasks. Automating this fine-tuning process is challenging, as it typically needs human feedback that can be expensive to acquire. We present AutoRefine, a method that leverages reinforcement learning for targeted fine-tuning, utilizing direct feedback from measurable performance improvements in specific downstream tasks. We demonstrate the method for a problem arising in algorithmic hiring platforms where linguistic biases influence a recommendation system. In this setting, a generative model seeks to rewrite given job specifications to receive more diverse candidate matches from a recommendation engine which matches jobs to candidates. Our model detects and regulates biases in job descriptions to meet diversity and fairness criteria. The experiments on a public hiring dataset and a real-world hiring platform showcase how large language models can assist in identifying and mitigation biases in the real world.
- Abstract(参考訳): ファンデーションモデルは、生成出力が特定のタスクに対して意図された結果と一致することを保証するために微調整が必要である。
この微調整プロセスを自動化することは、通常、取得するのにコストがかかる人間からのフィードバックを必要とするため、難しい。
本稿では、特定の下流タスクにおける計測可能なパフォーマンス改善から直接のフィードバックを利用して、目標とする微調整に強化学習を活用する手法であるAutoRefineを提案する。
本稿では,言語バイアスがレコメンデーションシステムに影響を及ぼすアルゴリズム的採用プラットフォームにおいて発生する問題の方法を示す。
この設定では、生成モデルは与えられたジョブ仕様を書き直して、ジョブと候補とのマッチングを行うレコメンデーションエンジンからより多様な候補マッチングを受け取る。
本モデルは,多様性と公正度基準を満たすために,職務記述におけるバイアスを検出し,規制する。
公開雇用データセットと実世界の雇用プラットフォームに関する実験は、大規模言語モデルが現実世界におけるバイアスの特定と緩和にどのように役立つかを実証している。
関連論文リスト
- Likelihood as a Performance Gauge for Retrieval-Augmented Generation [78.28197013467157]
言語モデルの性能の効果的な指標としての可能性を示す。
提案手法は,より優れた性能をもたらすプロンプトの選択と構築のための尺度として,疑似可能性を利用する2つの手法を提案する。
論文 参考訳(メタデータ) (2024-11-12T13:14:09Z) - Generative Judge for Evaluating Alignment [84.09815387884753]
本稿では,これらの課題に対処するために,13Bパラメータを持つ生成判断器Auto-Jを提案する。
我々のモデルは,大規模な実環境シナリオ下でのユーザクエリとLLM生成応答に基づいて訓練されている。
実験的に、Auto-Jはオープンソースモデルとクローズドソースモデルの両方を含む、強力なライバルのシリーズを上回っている。
論文 参考訳(メタデータ) (2023-10-09T07:27:15Z) - Adapting Large Language Models for Content Moderation: Pitfalls in Data
Engineering and Supervised Fine-tuning [79.53130089003986]
大規模言語モデル(LLM)は、様々なドメインでタスクを処理するための実現可能なソリューションとなっている。
本稿では、コンテンツモデレーションのためにプライベートにデプロイ可能なLLMモデルを微調整する方法を紹介する。
論文 参考訳(メタデータ) (2023-10-05T09:09:44Z) - Exploring Large Language Model for Graph Data Understanding in Online
Job Recommendations [63.19448893196642]
本稿では,大規模言語モデルが提供するリッチな文脈情報と意味表現を利用して行動グラフを解析する新しいフレームワークを提案する。
この機能を利用することで、個々のユーザに対してパーソナライズされた、正確なジョブレコメンデーションが可能になる。
論文 参考訳(メタデータ) (2023-07-10T11:29:41Z) - Fairness-guided Few-shot Prompting for Large Language Models [93.05624064699965]
インコンテキスト学習は、トレーニング例、例えば順、プロンプトフォーマットのバリエーションによって、高い不安定性に悩まされる可能性がある。
ラベルや属性に対する固定的なプロンプトの予測バイアスを評価するための指標を導入する。
そこで本研究では,テキスト内学習の性能向上のための最寄りのプロンプトを特定するための,欲求探索に基づく新しい探索手法を提案する。
論文 参考訳(メタデータ) (2023-03-23T12:28:25Z) - Debiasing Vision-Language Models via Biased Prompts [79.04467131711775]
本稿では,テキスト埋め込みにおけるバイアスのある方向を投影することで,視覚言語基盤モデルを疎外する一般的な手法を提案する。
偏平投影行列を組み込んだテキストのみをデバイアスすることで、ロバストな分類器と公正な生成モデルが得られることを示す。
論文 参考訳(メタデータ) (2023-01-31T20:09:33Z) - Toward a traceable, explainable, and fairJD/Resume recommendation system [10.820022470618234]
自動採用システムの開発は今でも大きな課題の1つだ。
我々の目的は、JD/Resumeマッチングプロセスを強化するために、現代言語モデルと知識ベースとデータセットを組み合わせる方法を探ることである。
論文 参考訳(メタデータ) (2022-02-02T18:17:05Z) - Fairness-Aware Online Personalization [16.320648868892526]
個人格付けを含むオンラインパーソナライズ設定における公平性について検討する。
最初に、オンラインパーソナライゼーションが、ユーザが応答に偏っている場合、モデルが不公平に行動することを学ぶことを実証する。
次に、公正な制約の下でパーソナライズされたモデルを学習する問題を定式化し、機械学習におけるバイアスを軽減するための正規化に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2020-07-30T07:16:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。