論文の概要: Humble AI in the real-world: the case of algorithmic hiring
- arxiv url: http://arxiv.org/abs/2505.20918v1
- Date: Tue, 27 May 2025 09:09:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-28 17:05:58.532982
- Title: Humble AI in the real-world: the case of algorithmic hiring
- Title(参考訳): 現実のAI:アルゴリズム採用の事例
- Authors: Rahul Nair, Inge Vejsbjerg, Elizabeth Daly, Christos Varytimidis, Bran Knowles,
- Abstract要約: Humble AIは、懐疑論を通じてAI開発とデプロイメントに慎重さを主張する。
アルゴリズム雇用の分野における謙虚なAIの現実的なケーススタディを示す。
- 参考スコア(独自算出の注目度): 9.53469974854897
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Humble AI (Knowles et al., 2023) argues for cautiousness in AI development and deployments through scepticism (accounting for limitations of statistical learning), curiosity (accounting for unexpected outcomes), and commitment (accounting for multifaceted values beyond performance). We present a real-world case study for humble AI in the domain of algorithmic hiring. Specifically, we evaluate virtual screening algorithms in a widely used hiring platform that matches candidates to job openings. There are several challenges in misrecognition and stereotyping in such contexts that are difficult to assess through standard fairness and trust frameworks; e.g., someone with a non-traditional background is less likely to rank highly. We demonstrate technical feasibility of how humble AI principles can be translated to practice through uncertainty quantification of ranks, entropy estimates, and a user experience that highlights algorithmic unknowns. We describe preliminary discussions with focus groups made up of recruiters. Future user studies seek to evaluate whether the higher cognitive load of a humble AI system fosters a climate of trust in its outcomes.
- Abstract(参考訳): Humble AI (Knowles et al , 2023)は、懐疑主義(統計的学習の限界について)、好奇心(予期せぬ結果について)、コミットメント(パフォーマンス以上の多面的価値について)を通じて、AI開発とデプロイメントの慎重さを論じている。
アルゴリズム雇用の分野における謙虚なAIの現実的なケーススタディを示す。
具体的には、候補者と求職者をマッチングする採用プラットフォームで広く利用されている仮想スクリーニングアルゴリズムを評価する。
このような状況下での認識とステレオタイピングには、標準的な公正性と信頼の枠組みを通じて評価することが難しいいくつかの課題がある。
我々は、ランクの不確実な定量化、エントロピー推定、アルゴリズムの未知をハイライトするユーザエクスペリエンスを通じて、謙虚なAI原則を実践にどのように翻訳できるかの技術的実現可能性を示す。
採用者からなる焦点グループとの予備的な議論について述べる。
将来のユーザー研究は、謙虚なAIシステムの高い認知負荷が、その結果に対する信頼の気候を育むかどうかを評価することを目指している。
関連論文リスト
- Behind the Screens: Uncovering Bias in AI-Driven Video Interview Assessments Using Counterfactuals [0.0]
本稿では,AIによる人格評価において,偏見を評価・定量化するための反ファクトベースのフレームワークを提案する。
本手法では,求職者の対実表現を生成するためにGAN(Generative Adversarial Network)を用いる。
この作業は、商用AI採用プラットフォームの公正監査のためのスケーラブルなツールを提供する。
論文 参考訳(メタデータ) (2025-05-17T18:46:14Z) - General Scales Unlock AI Evaluation with Explanatory and Predictive Power [57.7995945974989]
ベンチマークはAIの進歩を導くものだが、汎用AIシステムには限られた説明力と予測力を提供している。
私たちは、一般的なAIベンチマークが実際に何を計測しているかを説明することができる、AI評価のための一般的な尺度を紹介します。
私たちの完全に自動化された方法論は、飽和しない一般的なスケールにインスタンス要求を配置する18の新しく作られたルーリックの上に構築されます。
論文 参考訳(メタデータ) (2025-03-09T01:13:56Z) - Follow the money: a startup-based measure of AI exposure across occupations, industries and regions [0.0]
既存のAIの職業曝露対策は、技術的実現可能性に基づいて人間の労働を代用または補うAIの理論的可能性に焦点を当てている。
我々は,O*NETとスタートアップが開発したAIアプリケーションからの職業的記述に基づく,新たな指標であるAISE(AI Startup Exposure)指標を紹介する。
我々の発見は、AIの採用は、AIアプリケーションの技術的実現可能性と同様に、社会的要因によって徐々に形成されていくことを示唆している。
論文 参考訳(メタデータ) (2024-12-06T10:25:05Z) - Engineering Trustworthy AI: A Developer Guide for Empirical Risk Minimization [53.80919781981027]
信頼できるAIのための重要な要件は、経験的リスク最小化のコンポーネントの設計選択に変換できる。
私たちは、AIの信頼性の新たな標準を満たすAIシステムを構築するための実用的なガイダンスを提供したいと思っています。
論文 参考訳(メタデータ) (2024-10-25T07:53:32Z) - Bending the Automation Bias Curve: A Study of Human and AI-based
Decision Making in National Security Contexts [0.0]
私たちは、AIに関する背景知識とAIに対する信頼の関係、自動化バイアスの確率に影響を与える他の要因との相互作用について理論を立てています。
我々は、AI産業のレベルが異なる9カ国の9000人の成人の代表例を対象に、事前登録されたタスク識別実験でテストを行った。
論文 参考訳(メタデータ) (2023-06-28T18:57:36Z) - Guideline for Trustworthy Artificial Intelligence -- AI Assessment
Catalog [0.0]
AIアプリケーションとそれに基づくビジネスモデルが、高品質な標準に従って開発されている場合にのみ、その潜在能力を最大限に発揮できることは明らかです。
AIアプリケーションの信頼性の問題は非常に重要であり、多くの主要な出版物の主題となっている。
このAIアセスメントカタログは、まさにこの点に対応しており、2つのターゲットグループを対象としている。
論文 参考訳(メタデータ) (2023-06-20T08:07:18Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。