論文の概要: Two Tickets are Better than One: Fair and Accurate Hiring Under Strategic LLM Manipulations
- arxiv url: http://arxiv.org/abs/2502.13221v1
- Date: Tue, 18 Feb 2025 19:01:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-20 20:12:09.756943
- Title: Two Tickets are Better than One: Fair and Accurate Hiring Under Strategic LLM Manipulations
- Title(参考訳): 2つのチケットは1つより優れている:戦略的LLM操作下での公正かつ正確な雇用
- Authors: Lee Cohen, Jack Hsieh, Connie Hong, Judy Hanwen Shen,
- Abstract要約: 大規模言語モデルを用いた操作に適した戦略分類フレームワークを新たに導入する。
提案手法では,求人アルゴリズムが提案した履歴書に付加的な操作を施す。
我々は,雇用成果がグループに依存しない決定に収束し,差分アクセスによる格差を解消することを証明する。
- 参考スコア(独自算出の注目度): 4.536082020644864
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In an era of increasingly capable foundation models, job seekers are turning to generative AI tools to enhance their application materials. However, unequal access to and knowledge about generative AI tools can harm both employers and candidates by reducing the accuracy of hiring decisions and giving some candidates an unfair advantage. To address these challenges, we introduce a new variant of the strategic classification framework tailored to manipulations performed using large language models, accommodating varying levels of manipulations and stochastic outcomes. We propose a ``two-ticket'' scheme, where the hiring algorithm applies an additional manipulation to each submitted resume and considers this manipulated version together with the original submitted resume. We establish theoretical guarantees for this scheme, showing improvements for both the fairness and accuracy of hiring decisions when the true positive rate is maximized subject to a no false positives constraint. We further generalize this approach to an $n$-ticket scheme and prove that hiring outcomes converge to a fixed, group-independent decision, eliminating disparities arising from differential LLM access. Finally, we empirically validate our framework and the performance of our two-ticket scheme on real resumes using an open-source resume screening tool.
- Abstract(参考訳): ますます有能なファンデーションモデルの時代、求職者は、アプリケーション素材を強化するための生成AIツールに目を向けている。
しかし、生成的AIツールへの不平等なアクセスと知識は、雇用者と候補者の両方を害し、雇用決定の正確さを減らし、一部の候補者に不公平な優位性を与える。
これらの課題に対処するため,我々は,大規模言語モデルを用いた操作に適した戦略分類フレームワークを新たに導入し,様々な操作レベルと確率的結果の調整を行う。
提案手法では,採用アルゴリズムが提案した履歴書に付加的な操作を施し,提案した履歴書とともにこの操作されたバージョンを考察する。
本手法の理論的保証は, 正の正の値が非偽の正の制約を受ける場合に, 雇用決定の公平性と正確性の両立を示すものである。
我々はさらに、このアプローチを$n$-tketスキームに一般化し、雇用結果が固定されたグループ独立決定に収束することを証明する。
最後に,オープンソースの履歴書検定ツールを用いて,実際の履歴書に対して,我々のフレームワークと2文字スキームの性能を実証的に検証した。
関連論文リスト
- Why Ask One When You Can Ask $k$? Two-Stage Learning-to-Defer to the Top-$k$ Experts [3.6787328174619254]
L2D(Learning-to-Defer)は、不確実な予測をより有能なエージェントに選択的に延期することで、意思決定システムによる信頼性の向上を可能にする。
本稿では,従来の2段階L2Dフレームワークを一般化したTop-k$ Learning-to-Deferを提案する。
柔軟性とコスト効率をさらに向上するため,各クエリに対して最適なエージェント数を求める適応型拡張であるTop-$k(x)$ Learning-to-Deferを導入する。
論文 参考訳(メタデータ) (2025-04-17T14:50:40Z) - Scalable Best-of-N Selection for Large Language Models via Self-Certainty [65.31658824274894]
Best-of-N選択は、大規模言語モデルの推論性能を改善するための重要なテクニックである。
本稿では,外部報酬モデルを必要とすることなく,応答品質を推定する新規かつ効率的な指標である自己確実性を提案する。
本研究は, LLM推論能力を向上させるための実用的で効率的な方法として, 自己確実性を確立した。
論文 参考訳(メタデータ) (2025-02-25T19:08:07Z) - Improving LLM Reasoning through Scaling Inference Computation with Collaborative Verification [52.095460362197336]
大規模言語モデル(LLM)は一貫性と正確な推論に苦しむ。
LLMは、主に正しいソリューションに基づいて訓練され、エラーを検出して学習する能力を減らす。
本稿では,CoT(Chain-of-Thought)とPoT(Program-of-Thought)を組み合わせた新しい協調手法を提案する。
論文 参考訳(メタデータ) (2024-10-05T05:21:48Z) - Learning to Use Tools via Cooperative and Interactive Agents [58.77710337157665]
ツール学習は、外部ツールを使用してユーティリティを拡張するエージェントとして、大きな言語モデル(LLM)を促進する。
ツール選択,ツール実行,アクションキャリブレーションの3つの特別なエージェントを個別にコーディネートする,協調型対話型エージェントフレームワークであるConAgentsを提案する。
3つのデータセットに対する実験により、LLMは、ConAgentsを装備した場合、大幅に改善されたベースラインよりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-03-05T15:08:16Z) - Learning Fair Ranking Policies via Differentiable Optimization of
Ordered Weighted Averages [55.04219793298687]
本稿では,学習からランクへの学習ループに,効率よく解ける公正ランキングモデルを組み込む方法について述べる。
特に,本論文は,OWA目標の制約された最適化を通じてバックプロパゲーションを行う方法を示す最初のものである。
論文 参考訳(メタデータ) (2024-02-07T20:53:53Z) - Weakly Supervised Learners for Correction of AI Errors with Provable
Performance Guarantees [38.36817319051697]
本稿では,最優先性能保証付き弱教師付きAI誤り訂正器を導入することにより,AIエラーを処理する新しい手法を提案する。
これらのAI補正は、その決定を承認または拒否することで、以前に構築されたいくつかの下位分類器の決定を緩和する役割を持つ補助的なマップである。
この作業の重要な技術的焦点は、誤った判断の可能性を限定して、これらの新しいAI修正器のパフォーマンス保証を提供することである。
論文 参考訳(メタデータ) (2024-01-31T20:36:13Z) - On Leveraging Large Language Models for Enhancing Entity Resolution: A Cost-efficient Approach [7.996010840316654]
本稿では,Large Language Models (LLMs) を用いた不確実性低減フレームワークを提案する。
LLMは、先進的な言語能力と、広範なデータサイエンスの専門知識を持たない人々に対して大きな利点をもたらす「従量制」モデルに便乗している。
我々は,本手法が効率的かつ効果的であることを示し,実世界のタスクに有望な応用を提供する。
論文 参考訳(メタデータ) (2024-01-07T09:06:58Z) - Optimizing Credit Limit Adjustments Under Adversarial Goals Using
Reinforcement Learning [42.303733194571905]
我々は、強化学習技術を用いて最適なクレジットカード制限調整ポリシーを発見し、自動化することを模索する。
本研究は、信用限度調整に強化学習フレームワークを適用するための概念構造を確立する。
論文 参考訳(メタデータ) (2023-06-27T16:10:36Z) - Leaving the Nest: Going Beyond Local Loss Functions for
Predict-Then-Optimize [57.22851616806617]
本手法は,文献から得られた4つの領域において,最先端の成果が得られることを示す。
提案手法は, 局所性仮定が破られた場合, 既存手法よりも200%近く性能が向上する。
論文 参考訳(メタデータ) (2023-05-26T11:17:45Z) - Canary in a Coalmine: Better Membership Inference with Ensembled
Adversarial Queries [53.222218035435006]
私たちは、差別的で多様なクエリを最適化するために、逆ツールを使用します。
我々の改善は既存の方法よりもはるかに正確な会員推定を実現している。
論文 参考訳(メタデータ) (2022-10-19T17:46:50Z) - RAGUEL: Recourse-Aware Group Unfairness Elimination [2.720659230102122]
「algorithmic recourse」は、望ましくない結果を変えるための実行可能な回復行動を提供する。
ランク付けされたグループレベルのリコースフェアネスの概念を導入する。
我々は、ランク付けされたrecourse Fairness制約を満たす'recourse-aware ranking'ソリューションを開発する。
論文 参考訳(メタデータ) (2022-08-30T11:53:38Z) - Individually Fair Learning with One-Sided Feedback [15.713330010191092]
我々は,学習者が正に予測されたインスタンスに対してのみ真のラベルを観察できる,一方的なフィードバックを伴うオンライン学習問題を考察する。
各ラウンドで$k$インスタンスが到着し、学習者が配置したランダム化ポリシーに従って分類結果を受け取る。
そこで我々は,一方的なフィードバックによるオンライン学習の問題から,文脈的半帯域問題に対する公平性違反を報告したパネルを構築。
論文 参考訳(メタデータ) (2022-06-09T12:59:03Z) - MURAL: Meta-Learning Uncertainty-Aware Rewards for Outcome-Driven
Reinforcement Learning [65.52675802289775]
本研究では,不確かさを意識した分類器が,強化学習の難しさを解消できることを示す。
正規化最大度(NML)分布の計算法を提案する。
得られたアルゴリズムは、カウントベースの探索法と、報酬関数を学習するための先行アルゴリズムの両方に多くの興味深い関係を持つことを示す。
論文 参考訳(メタデータ) (2021-07-15T08:19:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。