論文の概要: Secondary Bounded Rationality: A Theory of How Algorithms Reproduce Structural Inequality in AI Hiring
- arxiv url: http://arxiv.org/abs/2507.09233v2
- Date: Tue, 22 Jul 2025 07:25:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-23 15:16:11.85836
- Title: Secondary Bounded Rationality: A Theory of How Algorithms Reproduce Structural Inequality in AI Hiring
- Title(参考訳): セカンダリ・バウンドド・ライタリティ:AI採用におけるアルゴリズムによる構造的不平等の再現の理論
- Authors: Jia Xiao,
- Abstract要約: 論文では、AIシステムは技術的・社会的制約を通じて人間の認知と構造的バイアスを継承し、増幅すると主張している。
アルゴリズムのプロセスが、エリート的信用権の特権化やネットワークのホモフィリーといった歴史的不平等を、明らかに有益な官僚的な結果にどのように変えるかを示す。
我々は、この自己強化不平等を打破するために、対物公正テスト、資本認識監査、規制介入を含む緩和戦略を提案する。
- 参考スコア(独自算出の注目度): 0.174048653626208
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: AI-driven recruitment systems, while promising efficiency and objectivity, often perpetuate systemic inequalities by encoding cultural and social capital disparities into algorithmic decision making. This article develops and defends a novel theory of secondary bounded rationality, arguing that AI systems, despite their computational power, inherit and amplify human cognitive and structural biases through technical and sociopolitical constraints. Analyzing multimodal recruitment frameworks, we demonstrate how algorithmic processes transform historical inequalities, such as elite credential privileging and network homophily, into ostensibly meritocratic outcomes. Using Bourdieusian capital theory and Simon's bounded rationality, we reveal a recursive cycle where AI entrenches exclusion by optimizing for legible yet biased proxies of competence. We propose mitigation strategies, including counterfactual fairness testing, capital-aware auditing, and regulatory interventions, to disrupt this self-reinforcing inequality.
- Abstract(参考訳): AIによる採用システムは、効率と客観性を約束する一方で、文化と社会の資本格差をアルゴリズムによる意思決定にエンコードすることで、体系的な不平等を持続させる。
本稿では、AIシステムは、その計算能力にもかかわらず、技術的・社会政治的制約を通じて人間の認知的・構造的バイアスを継承し、増幅する、という、二次有界有理性という新たな理論を開発し、擁護する。
マルチモーダルな採用フレームワークを解析し、アルゴリズムプロセスが、エリート的クレデンシャル・プライバリングやネットワーク・ホモフィリーといった歴史的不平等を、明らかに有益な結果へと変換する様子を実証する。
ブルディウスの資本理論とシモンの有界有理性を用いて、我々はAIが正当で偏見のある能力のプロキシを最適化することによって排除する再帰的サイクルを明らかにする。
我々は、この自己強化不平等を打破するために、対物公正テスト、資本認識監査、規制介入を含む緩和戦略を提案する。
関連論文リスト
- Resource Rational Contractualism Should Guide AI Alignment [69.07915246220985]
契約主義的アライメントは、多様な利害関係者が支持する合意の中で決定を下すことを提案する。
我々は、AIシステムが合理的な当事者が形成する合意を近似する枠組みであるリソース・リアリズムを提案する。
RRC対応エージェントは、効率的に機能するだけでなく、変化する人間の社会世界への適応と解釈を動的に行うことができる。
論文 参考訳(メタデータ) (2025-06-20T18:57:13Z) - Authoritarian Recursions: How Fiction, History, and AI Reinforce Control in Education, Warfare, and Discourse [0.0]
論文は、人工知能システムが教育、軍事活動、デジタル談話の機関的制御を統合する方法を理論的に論じている。
インテリジェントシステムは、効率性と中立性という概念の下で階層構造を正規化する方法を分析する。
ケーススタディには、教育における自動プロクター、戦争における自律的ターゲティング、社会プラットフォームにおけるアルゴリズムによるキュレーションなどが含まれる。
論文 参考訳(メタデータ) (2025-04-12T01:01:26Z) - AI and the Transformation of Accountability and Discretion in Urban Governance [1.9152655229960793]
この研究は洞察を合成し、意思決定プロセスにおける責任あるAI統合のための指針原則を提案する。
分析によると、AIは単に判断を制限したり、強化したりするのではなく、制度レベルで再配布する。
同時に管理の監督を強化し、意思決定の整合性を高め、運用効率を向上させることができる。
論文 参考訳(メタデータ) (2025-02-18T18:11:39Z) - Causal Responsibility Attribution for Human-AI Collaboration [62.474732677086855]
本稿では,人間のAIシステムにおける責任を体系的に評価するために,構造因果モデル(SCM)を用いた因果的枠組みを提案する。
2つのケーススタディは、多様な人間とAIのコラボレーションシナリオにおけるフレームワークの適応性を示している。
論文 参考訳(メタデータ) (2024-11-05T17:17:45Z) - Exploiting the Margin: How Capitalism Fuels AI at the Expense of Minoritized Groups [0.0]
本稿では、資本主義、人種的不正、人工知能(AI)の関係について考察する。
それは、AIが時代遅れの搾取のための現代的な乗り物として機能する、と論じている。
本論文は、社会正義と株式を技術デザインと政策の核心に組み込むアプローチを推進している。
論文 参考訳(メタデータ) (2024-03-10T22:40:07Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Factoring the Matrix of Domination: A Critical Review and Reimagination
of Intersectionality in AI Fairness [55.037030060643126]
間欠性は、社会的不平等の持続性を調べるための重要な枠組みである。
我々は、公平性を効果的に運用するために、交差性を分析的枠組みとして採用することが重要であると論じる。
論文 参考訳(メタデータ) (2023-03-16T21:02:09Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Distributive Justice and Fairness Metrics in Automated Decision-making:
How Much Overlap Is There? [0.0]
機会の平等を実践する指標は、資源割り当てが保存性に基づいている場合にのみ適用されるが、アロケーションが平等主義、十分性、優先順位に関する懸念を反映すべきときに失敗することを示す。
予測タスクと意思決定タスクをきれいに区別することで、公平な機械学習の研究は分散的正義に関する豊かな文献をよりうまく活用できると論じている。
論文 参考訳(メタデータ) (2021-05-04T12:09:26Z) - Fairness Perceptions of Algorithmic Decision-Making: A Systematic Review
of the Empirical Literature [0.0]
アルゴリズムによる意思決定(ADM)は、人々の日常生活をますます形作る。
学者や政策立案者が要求する人間中心のアプローチは、人々の公正な認識を考慮する必要があります。
アルゴリズム公平性の認識に関する既存の経験的洞察の包括的で体系的な文献レビューを提供します。
論文 参考訳(メタデータ) (2021-03-22T17:12:45Z) - Conservative AI and social inequality: Conceptualizing alternatives to
bias through social theory [0.0]
社会的な問題は、これらのシステムが人間の生活に与える影響を考えると、もはやAIと機械学習の範囲外にはならない。
保守主義(Conservatism)とは、現状を再現し、強化する支配的な傾向のことであり、急進的なアプローチは、制度的な不平等を乱すために働く。
これは、不平等を永続する構造化された方法を分析するために偏見のあるデータを超えた、AI奨学金の増大組織との関わりを必要とする。
論文 参考訳(メタデータ) (2020-07-16T21:52:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。