論文の概要: BAD: BiAs Detection for Large Language Models in the context of
candidate screening
- arxiv url: http://arxiv.org/abs/2305.10407v1
- Date: Wed, 17 May 2023 17:47:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-18 14:31:34.663294
- Title: BAD: BiAs Detection for Large Language Models in the context of
candidate screening
- Title(参考訳): BAD:候補検定における大規模言語モデルのBiAs検出
- Authors: Nam Ho Koh, Joseph Plata, Joyce Chai
- Abstract要約: 本研究の目的は、ChatGPTや他のOpenAI LLMにおける社会的偏見の事例を候補検定の文脈で定量化することである。
これらのモデルの使用が、採用プロセスにおける既存のバイアスや不平等を持続させる方法を示します。
- 参考スコア(独自算出の注目度): 6.47452771256903
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Application Tracking Systems (ATS) have allowed talent managers, recruiters,
and college admissions committees to process large volumes of potential
candidate applications efficiently. Traditionally, this screening process was
conducted manually, creating major bottlenecks due to the quantity of
applications and introducing many instances of human bias. The advent of large
language models (LLMs) such as ChatGPT and the potential of adopting methods to
current automated application screening raises additional bias and fairness
issues that must be addressed. In this project, we wish to identify and
quantify the instances of social bias in ChatGPT and other OpenAI LLMs in the
context of candidate screening in order to demonstrate how the use of these
models could perpetuate existing biases and inequalities in the hiring process.
- Abstract(参考訳): アプリケーショントラッキングシステム(ats)は、タレントマネージャー、リクルーター、大学入学者委員会が大量の候補アプリケーションを効率的に処理することを可能にした。
伝統的に、このスクリーニングプロセスは手動で行われ、アプリケーションの数と人間のバイアスの多さによる大きなボトルネックを生み出した。
ChatGPTのような大規模言語モデル(LLM)の出現と、現在の自動アプリケーションのスクリーニングにメソッドを採用する可能性により、さらにバイアスと公平性の問題に対処しなければならない。
本稿では,ChatGPTや他のOpenAI LLMにおける社会的偏見の事例を候補検定の文脈で特定し,定量化し,これらのモデルが採用プロセスにおける既存のバイアスや不平等をいかに持続させるかを示す。
関連論文リスト
- Forecasting Application Counts in Talent Acquisition Platforms: Harnessing Multimodal Signals using LMs [5.7623855432001445]
本稿では,採用領域における新たな課題,すなわちアプリケーション数予測について論じる。
本稿では,既存の自己回帰型時系列予測手法が,この課題に対して不十分であることを示す。
簡単なエンコーダを用いて,様々なモダリティの求人メタデータを融合したマルチモーダルLMモデルを提案する。
論文 参考訳(メタデータ) (2024-11-19T01:18:32Z) - On Speeding Up Language Model Evaluation [48.51924035873411]
LLM(Large Language Models)を用いたプロンプトベースの手法の開発には、多くの意思決定が必要である。
この課題に対処するための新しい手法を提案する。
典型的に必要とされるリソースの5~15%しか必要とせず,トップパフォーマンスの手法を識別できることが示される。
論文 参考訳(メタデータ) (2024-07-08T17:48:42Z) - Fairness in AI-Driven Recruitment: Challenges, Metrics, Methods, and Future Directions [0.0]
ビッグデータと機械学習は、従来の採用プロセスに急激な変革をもたらした。
AIベースの採用の頻度を考えると、人間の偏見がこれらのシステムによって決定される可能性があるという懸念が高まっている。
本稿では、AIによる採用におけるバイアスの種類を議論することで、この新興分野の包括的概要を提供する。
論文 参考訳(メタデータ) (2024-05-30T05:25:14Z) - Prompt Optimization with EASE? Efficient Ordering-aware Automated Selection of Exemplars [66.823588073584]
大規模言語モデル(LLM)は、現実世界のアプリケーションで印象的な機能を示している。
これらの卓越した作品の品質は、パフォーマンスに大きな影響を与えます。
既存の方法は、先行注文がパフォーマンスに与える影響を適切に説明できない。
論文 参考訳(メタデータ) (2024-05-25T08:23:05Z) - LangBiTe: A Platform for Testing Bias in Large Language Models [1.9744907811058787]
大規模言語モデル(LLM)は、フォーラム、ウェブサイト、ソーシャルメディア、その他のインターネットソースから抽出された膨大な量のデータに基づいて訓練されている。
LangBiTeを使うことで、開発チームはテストシナリオを調整し、ユーザ定義の倫理的要件に従ってテストケースを自動生成し、実行することが可能になる。
LangBiteは、LLMのバイアス評価と、最初の倫理的要件と得られた洞察の間のエンドツーエンドトレーサビリティを提供する。
論文 参考訳(メタデータ) (2024-04-29T10:02:45Z) - Auditing the Use of Language Models to Guide Hiring Decisions [2.949890760187898]
アルゴリズムバイアスから保護するための規制努力は、大規模言語モデルで急速に進歩した緊急性を高めている。
現在の規制と科学文献は、これらの評価の実施方法に関するガイダンスをほとんど提供していない。
本稿では,監査アルゴリズムの1つのアプローチとして,対応実験を提案する。
論文 参考訳(メタデータ) (2024-04-03T22:01:26Z) - The Shifted and The Overlooked: A Task-oriented Investigation of
User-GPT Interactions [114.67699010359637]
実際のユーザクエリの大規模なコレクションをGPTに解析する。
ユーザインタラクションでは'設計'や'計画'といったタスクが一般的だが,従来のNLPベンチマークとは大きく異なる。
論文 参考訳(メタデータ) (2023-10-19T02:12:17Z) - Generative Judge for Evaluating Alignment [84.09815387884753]
本稿では,これらの課題に対処するために,13Bパラメータを持つ生成判断器Auto-Jを提案する。
我々のモデルは,大規模な実環境シナリオ下でのユーザクエリとLLM生成応答に基づいて訓練されている。
実験的に、Auto-Jはオープンソースモデルとクローズドソースモデルの両方を含む、強力なライバルのシリーズを上回っている。
論文 参考訳(メタデータ) (2023-10-09T07:27:15Z) - Large Language Models are Not Yet Human-Level Evaluators for Abstractive
Summarization [66.08074487429477]
抽象的な要約のための自動評価器として,大規模言語モデル(LLM)の安定性と信頼性について検討する。
また、ChatGPTとGPT-4は、一般的に使われている自動測定値よりも優れていますが、人間の代替品として準備ができていません。
論文 参考訳(メタデータ) (2023-05-22T14:58:13Z) - Large Language Models are Zero-Shot Rankers for Recommender Systems [76.02500186203929]
本研究では,レコメンダシステムのランキングモデルとして機能する大規模言語モデル(LLM)の能力を検討することを目的とする。
LLMにはゼロショットランキング能力があるが、歴史的相互作用の順序を理解するのに苦労していることを示す。
これらの問題は、特別に設計されたプロンプトとブートストラップ戦略によって緩和可能であることを実証する。
論文 参考訳(メタデータ) (2023-05-15T17:57:39Z) - Toward a traceable, explainable, and fairJD/Resume recommendation system [10.820022470618234]
自動採用システムの開発は今でも大きな課題の1つだ。
我々の目的は、JD/Resumeマッチングプロセスを強化するために、現代言語モデルと知識ベースとデータセットを組み合わせる方法を探ることである。
論文 参考訳(メタデータ) (2022-02-02T18:17:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。