論文の概要: Quantifying truth and authenticity in AI-assisted candidate evaluation: A multi-domain pilot analysis
- arxiv url: http://arxiv.org/abs/2511.00774v2
- Date: Wed, 05 Nov 2025 05:24:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-06 13:56:26.166206
- Title: Quantifying truth and authenticity in AI-assisted candidate evaluation: A multi-domain pilot analysis
- Title(参考訳): AI支援候補評価における真偽と真偽の定量化:マルチドメインパイロット分析
- Authors: Eldred Lee, Nicholas Worley, Koshu Takatsuji,
- Abstract要約: 本稿では,AlteraSFを通じて実施されたパイロット採用キャンペーンにおいて収集された匿名候補評価データの振り返り分析を行った。
このシステムは、履歴書のクレームを評価し、文脈に敏感な検証質問を生成し、事実の妥当性と仕事の適合性の定量的な軸に沿ってパフォーマンスを測定する。
このプラットフォームは、スクリーニング時間を90-95%削減し、AIアシストまたはコピーされた応答と一致する測定可能な言語パターンを検出した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper presents a retrospective analysis of anonymized candidate-evaluation data collected during pilot hiring campaigns conducted through AlteraSF, an AI-native resume-verification platform. The system evaluates resume claims, generates context-sensitive verification questions, and measures performance along quantitative axes of factual validity and job fit, complemented by qualitative integrity detection. Across six job families and 1,700 applications, the platform achieved a 90-95% reduction in screening time and detected measurable linguistic patterns consistent with AI-assisted or copied responses. The analysis demonstrates that candidate truthfulness can be assessed not only through factual accuracy but also through patterns of linguistic authenticity. The results suggest that a multi-dimensional verification framework can improve both hiring efficiency and trust in AI-mediated evaluation systems.
- Abstract(参考訳): 本稿では,AIネイティブ履歴検証プラットフォームであるAlteraSFを通じて実施したパイロット採用キャンペーンにおいて収集された匿名化候補評価データの振り返り分析を行う。
このシステムは、履歴書のクレームを評価し、文脈に敏感な検証質問を生成し、質的整合性検出によって補完された、事実の妥当性とジョブ適合の定量的軸に沿ってパフォーマンスを測定する。
6つの職種と1700のアプリケーションで、このプラットフォームはスクリーニング時間を90~95%削減し、AIアシストまたはコピーされた応答と一致する測定可能な言語パターンを検出した。
この分析は、候補の真理性は、事実の正確性だけでなく、言語的真正性のパターンを通して評価できることを示している。
その結果、多次元検証フレームワークは、AIによる評価システムにおける雇用効率と信頼の両方を改善することが示唆された。
関連論文リスト
- Transparent Reference-free Automated Evaluation of Open-Ended User Survey Responses [7.295969279816647]
オープンな調査回答は、マーケティング研究に貴重な洞察を与えます。
品質の低い回答は、手動フィルタリングの研究者に負担を与えるだけでなく、誤った結論をもたらすリスクも負う。
そこで本研究では,ヒトのサーベイ応答に特化して設計された2段階評価フレームワークを提案する。
論文 参考訳(メタデータ) (2025-10-03T08:37:33Z) - Avaliação de eficiência na leitura: uma abordagem baseada em PLN [0.0]
本研究では,ブラジルポルトガル語におけるクローゼテストの自動評価モデルを提案する。
統合された手法は,その有効性を示し,人的評価と高い相関性を示した。
論文 参考訳(メタデータ) (2025-08-18T02:21:12Z) - I Think, Therefore I Am Under-Qualified? A Benchmark for Evaluating Linguistic Shibboleth Detection in LLM Hiring Evaluations [9.275967682881944]
本稿では,大言語モデルが言語シボレスにどう反応するかを評価するための総合的なベンチマークを提案する。
等価な内容の質にもかかわらず,LLMが言語パターン,特にヘッジ言語を体系的にペナルティ化する方法を実証する。
我々は,複数の言語的側面に沿ったアプローチを検証し,ヘッジドレスポンスが平均25.6%低い評価を受けることを示した。
論文 参考訳(メタデータ) (2025-08-06T23:51:03Z) - Monocle: Hybrid Local-Global In-Context Evaluation for Long-Text Generation with Uncertainty-Based Active Learning [63.531262595858]
分数的・対数的アプローチは、総合的な評価タスクを局所的なスコアリングタスクに分割し、続いて最終的なグローバルアセスメントを行う。
局所的およびグローバルな評価の両面での性能を高めるために,人間のアノテーションを活用するハイブリッド・イン・コンテキスト・ラーニング・アプローチを導入する。
最後に,人間のアノテーションに対するデータサンプルを効率的に選択する不確実性に基づく能動学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2025-05-26T16:39:41Z) - Analyzing Examinee Comments using DistilBERT and Machine Learning to Ensure Quality Control in Exam Content [0.0]
本研究では、自然言語処理(NLP)を用いて、問題のあるテスト項目を特定するための候補コメントの分析を行う。
我々は、関連する負のフィードバックを自動的に識別する機械学習モデルを開発し、検証した。
論文 参考訳(メタデータ) (2025-04-08T22:08:37Z) - On the Role of Feedback in Test-Time Scaling of Agentic AI Workflows [71.92083784393418]
エージェントAI(自律的な計画と行動を行うシステム)は広く普及しているが、複雑なタスクにおけるタスクの成功率は低いままである。
推論時のアライメントは、サンプリング、評価、フィードバックの3つのコンポーネントに依存します。
本稿では,様々な形態の批判から抽出されたフィードバックを繰り返し挿入するIterative Agent Decoding(IAD)を紹介する。
論文 参考訳(メタデータ) (2025-04-02T17:40:47Z) - Efficiency and Effectiveness of LLM-Based Summarization of Evidence in Crowdsourced Fact-Checking [39.26789981311121]
オンラインコンテンツの真偽を評価することは 誤報と戦うのに重要です
本研究では,2つのアプローチの比較分析により,クラウドソーシングによる真性評価の有効性と有効性を検討した。
論文 参考訳(メタデータ) (2025-01-30T11:04:14Z) - Position: AI Evaluation Should Learn from How We Test Humans [65.36614996495983]
人間の評価のための20世紀起源の理論である心理測定は、今日のAI評価における課題に対する強力な解決策になり得る、と我々は主張する。
論文 参考訳(メタデータ) (2023-06-18T09:54:33Z) - Towards Automatic Evaluation of Dialog Systems: A Model-Free Off-Policy
Evaluation Approach [84.02388020258141]
強化学習におけるオフポリシ評価に基づく人間評価スコア推定のための新しいフレームワークであるENIGMAを提案する。
ENIGMAはいくつかの事前収集された経験データしか必要としないため、評価中にターゲットポリシーとのヒューマンインタラクションは不要である。
実験の結果,ENIGMAは人間の評価スコアと相関して既存手法よりも有意に優れていた。
論文 参考訳(メタデータ) (2021-02-20T03:29:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。