論文の概要: Modeling Fairness in Recruitment AI via Information Flow
- arxiv url: http://arxiv.org/abs/2511.13793v1
- Date: Sun, 16 Nov 2025 21:01:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-19 16:23:52.728652
- Title: Modeling Fairness in Recruitment AI via Information Flow
- Title(参考訳): 情報フローを用いたリクルートAIにおけるフェアネスのモデル化
- Authors: Mattias Brännström, Themis Dimitra Xanthopoulou, Lili Jiang,
- Abstract要約: 人的意思決定と自動候補マッチングを統合した実世界の採用プロセスに,情報フローに基づくモデリングフレームワークを適用した。
バイアスがどこに現れるか、どのようにシステムを通して伝播するか、候補者にどのような影響を及ぼすか、などを特定します。
- 参考スコア(独自算出の注目度): 1.290382979353427
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Avoiding bias and understanding the real-world consequences of AI-supported decision-making are critical to address fairness and assign accountability. Existing approaches often focus either on technical aspects, such as datasets and models, or on high-level socio-ethical considerations - rarely capturing how these elements interact in practice. In this paper, we apply an information flow-based modeling framework to a real-world recruitment process that integrates automated candidate matching with human decision-making. Through semi-structured stakeholder interviews and iterative modeling, we construct a multi-level representation of the recruitment pipeline, capturing how information is transformed, filtered, and interpreted across both algorithmic and human components. We identify where biases may emerge, how they can propagate through the system, and what downstream impacts they may have on candidates. This case study illustrates how information flow modeling can support structured analysis of fairness risks, providing transparency across complex socio-technical systems.
- Abstract(参考訳): バイアスを回避し、AIが支援する意思決定の現実的な結果を理解することは、公平性に対処し、説明責任を割り当てるのに不可欠である。
既存のアプローチでは、データセットやモデルといった技術的な側面や、高いレベルの社会的倫理的考察に重点を置いています。
本稿では,人間の意思決定と自動候補マッチングを統合した実世界の採用プロセスに,情報フローに基づくモデリングフレームワークを適用する。
半構造化されたステークホルダーインタビューと反復的モデリングを通じて、採用パイプラインのマルチレベル表現を構築し、情報がどのように変換され、フィルタリングされ、アルゴリズムと人の両方のコンポーネントにわたって解釈されるかを把握する。
バイアスがどこに現れるか、どのようにシステムを通して伝播するか、候補者にどのような影響を及ぼすか、などを特定します。
このケーススタディは、情報フローモデリングがフェアネスリスクの構造解析をどのようにサポートするかを示し、複雑な社会技術システム間の透明性を提供する。
関連論文リスト
- A Comprehensive Perspective on Explainable AI across the Machine Learning Workflow [1.269939585263915]
Holistic Explainable Artificial Intelligence (HXAI)は、データ分析ワークフローのすべてのステージに説明を埋め込む、ユーザ中心のフレームワークである。
HXAIは6つのコンポーネント(データ、分析設定、学習プロセス、モデル出力、モデル品質、通信チャネル)を単一の分類体系に統合する。
112項目の質問銀行がこれらのニーズをカバーしています。
論文 参考訳(メタデータ) (2025-08-15T15:15:25Z) - Leveraging Large Language Models for Tacit Knowledge Discovery in Organizational Contexts [0.4499833362998487]
本稿では,従業員とのインタラクションを通じて,データセット記述を反復的に再構築するエージェントベースのフレームワークを提案する。
本研究の結果から, 自己批判的フィードバックスコアは外部文献評論家のスコアと強く相関し, 94.9%の完全知識リコールが達成された。
これらの知見は、エージェントが組織的な複雑さをナビゲートし、そうでなければアクセスできないような断片化された知識をキャプチャする能力を強調している。
論文 参考訳(メタデータ) (2025-07-04T21:09:32Z) - Neural Network Reprogrammability: A Unified Theme on Model Reprogramming, Prompt Tuning, and Prompt Instruction [57.19302613163439]
モデル適応のための統一フレームワークとして,ニューラルネットワークの再プログラム可能性を導入する。
本稿では,4つの重要な側面にまたがる情報操作アプローチを分類する分類法を提案する。
残る技術的課題や倫理的考察も分析する。
論文 参考訳(メタデータ) (2025-06-05T05:42:27Z) - Data Analysis in the Era of Generative AI [56.44807642944589]
本稿では,AIを活用したデータ分析ツールの可能性について考察する。
我々は、大規模言語とマルチモーダルモデルの出現が、データ分析ワークフローの様々な段階を強化する新しい機会を提供する方法について検討する。
次に、直感的なインタラクションを促進し、ユーザ信頼を構築し、AI支援分析ワークフローを複数のアプリにわたって合理化するための、人間中心の設計原則を調べます。
論文 参考訳(メタデータ) (2024-09-27T06:31:03Z) - Designing explainable artificial intelligence with active inference: A
framework for transparent introspection and decision-making [0.0]
我々は、アクティブ推論がどのようにして説明可能なAIシステムの設計に活用できるかについて議論する。
能動推論を用いた説明可能なAIシステムのためのアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-06-06T21:38:09Z) - Evaluating Explainability in Machine Learning Predictions through Explainer-Agnostic Metrics [0.0]
我々は,モデル予測が説明できる範囲を定量化するために,6つの異なるモデルに依存しないメトリクスを開発した。
これらのメトリクスは、局所的な重要性、グローバルな重要性、代理予測など、モデル説明可能性のさまざまな側面を測定する。
分類と回帰タスクにおけるこれらのメトリクスの実用性を実証し、これらのメトリクスを公開のために既存のPythonパッケージに統合する。
論文 参考訳(メタデータ) (2023-02-23T15:28:36Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Inverse Online Learning: Understanding Non-Stationary and Reactionary
Policies [79.60322329952453]
エージェントが意思決定を行う方法の解釈可能な表現を開発する方法を示す。
一連の軌跡に基づく意思決定プロセスを理解することにより,このオンライン学習問題に対して,政策推論問題を逆問題とみなした。
本稿では、エージェントがそれらを更新するプロセスと並行して、その影響を遡及的に推定する実用的なアルゴリズムを提案する。
UNOSの臓器提供受諾決定の分析に応用することで、我々のアプローチは意思決定プロセスを管理する要因や時間とともにどのように変化するかに、貴重な洞察をもたらすことができることを実証する。
論文 参考訳(メタデータ) (2022-03-14T17:40:42Z) - FairCVtest Demo: Understanding Bias in Multimodal Learning with a
Testbed in Fair Automatic Recruitment [79.23531577235887]
このデモは、非構造化データから機密情報を抽出する採用ツールの背後にある人工知能(AI)の能力を示しています。
また、このデモには差別認識学習のための新しいアルゴリズムが含まれており、マルチモーダルAIフレームワークの機密情報を排除している。
論文 参考訳(メタデータ) (2020-09-12T17:45:09Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。