論文の概要: Algorithmic Inheritance: Surname Bias in AI Decisions Reinforces Intergenerational Inequality
- arxiv url: http://arxiv.org/abs/2501.19407v2
- Date: Wed, 05 Feb 2025 09:25:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-06 14:26:05.680417
- Title: Algorithmic Inheritance: Surname Bias in AI Decisions Reinforces Intergenerational Inequality
- Title(参考訳): アルゴリズムの継承:AI決定における名前バイアスは世代間不平等を補強する
- Authors: Pat Pataranutaporn, Nattavudh Powdthavee, Pattie Maes,
- Abstract要約: 名前はしばしば社会的地位、富、血統の暗黙のマーカーを伝え、体系的偏見と世代間不平等を永続させる方法で知覚を形成する。
この研究は、姓がAIによる意思決定にどう影響するかを調査する最初の試みである。
我々の研究結果によると、エリートな姓はAIが生成するパワー、知性、富の認識を継続的に増加させ、それによってAIが主導する意思決定に高い文脈で影響を及ぼす。
- 参考スコア(独自算出の注目度): 27.577384511393685
- License:
- Abstract: Surnames often convey implicit markers of social status, wealth, and lineage, shaping perceptions in ways that can perpetuate systemic biases and intergenerational inequality. This study is the first of its kind to investigate whether and how surnames influence AI-driven decision-making, focusing on their effects across key areas such as hiring recommendations, leadership appointments, and loan approvals. Using 72,000 evaluations of 600 surnames from the United States and Thailand, two countries with distinct sociohistorical contexts and surname conventions, we classify names into four categories: Rich, Legacy, Normal, and phonetically similar Variant groups. Our findings show that elite surnames consistently increase AI-generated perceptions of power, intelligence, and wealth, which in turn influence AI-driven decisions in high-stakes contexts. Mediation analysis reveals perceived intelligence as a key mechanism through which surname biases influence AI decision-making process. While providing objective qualifications alongside surnames mitigates most of these biases, it does not eliminate them entirely, especially in contexts where candidate credentials are low. These findings highlight the need for fairness-aware algorithms and robust policy measures to prevent AI systems from reinforcing systemic inequalities tied to surnames, an often-overlooked bias compared to more salient characteristics such as race and gender. Our work calls for a critical reassessment of algorithmic accountability and its broader societal impact, particularly in systems designed to uphold meritocratic principles while counteracting the perpetuation of intergenerational privilege.
- Abstract(参考訳): 名前はしばしば社会的地位、富、血統の暗黙のマーカーを伝え、体系的偏見と世代間不平等を永続させる方法で知覚を形成する。
この研究は、リコメンデーション、リーダーシップの任命、ローンの承認など、重要な分野にまたがって、姓がAIによる意思決定にどう影響するかを調査する最初の種である。
アメリカとタイの600の姓、異なる社会史的文脈と姓の慣例を持つ2つの国から72,000の姓を評価した結果、我々は、富、レガシー、ノーマル、音声学的に類似したヴァリアントグループという4つのカテゴリに分類した。
我々の研究結果によると、エリートな姓はAIが生成するパワー、知性、富の認識を継続的に増加させ、それによってAIが主導する意思決定に高い文脈で影響を及ぼす。
情緒分析は、知性は、姓の偏見がAI意思決定プロセスに影響を与える重要なメカニズムであることを示している。
姓と共に客観的な資格を与えることは、これらのバイアスの大部分を緩和するが、特に候補者資格が低い状況において、完全には排除しない。
これらの発見は、AIシステムが姓と結びついた体系的不平等を補強するのを防ぐための公正なアルゴリズムと堅牢な政策措置の必要性を強調しており、人種や性別などのより健全な特徴と比較して見過ごされがちである。
我々の研究は、特に、世代間特権の永続性に対抗しつつ、卓越した官僚主義の原則を支持するように設計されたシステムにおいて、アルゴリズム的説明責任とそのより広範な社会的影響を批判的に再評価することを求めている。
関連論文リスト
- It's complicated. The relationship of algorithmic fairness and non-discrimination regulations in the EU AI Act [2.9914612342004503]
EUは最近、AIモデルの特定のルールを規定するAI法を成立させた。
本稿では、法的な非差別規則と機械学習に基づくアルゴリズムフェアネスの概念の両方を紹介する。
論文 参考訳(メタデータ) (2025-01-22T15:38:09Z) - Biased AI can Influence Political Decision-Making [64.9461133083473]
本稿では、AI言語モデルにおけるパルチザンバイアスが政治的意思決定に及ぼす影響について検討する。
政治的に偏見のあるモデルに晒された参加者は、意見を採用し、AIの偏見と一致した決定を下す可能性が著しく高いことがわかった。
論文 参考訳(メタデータ) (2024-10-08T22:56:00Z) - A Survey on Intersectional Fairness in Machine Learning: Notions,
Mitigation, and Challenges [11.885166133818819]
機械学習システムの採用により、公平性への懸念が高まっている。
公平さと緩和の交叉観念に関する分類を提示する。
重要な課題を特定し、今後の方向性に関するガイドラインを研究者に提供する。
論文 参考訳(メタデータ) (2023-05-11T16:49:22Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Fairness And Bias in Artificial Intelligence: A Brief Survey of Sources,
Impacts, And Mitigation Strategies [11.323961700172175]
この調査論文は、AIの公平性とバイアスに関する簡潔で包括的な概要を提供する。
我々は、データ、アルゴリズム、人間の決定バイアスなどのバイアス源をレビューする。
偏りのあるAIシステムの社会的影響を評価し,不平等の持続性と有害なステレオタイプの強化に着目した。
論文 参考訳(メタデータ) (2023-04-16T03:23:55Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - How Different Groups Prioritize Ethical Values for Responsible AI [75.40051547428592]
民間企業、公共セクター組織、学術団体は、責任あるAI技術にとって重要であると考える倫理的価値観を概説している。
彼らのレコメンデーションは中央値のセットに収束するが、より代表的な大衆が、彼らが交流し、影響を受ける可能性のあるAI技術にとって重要な価値についてはほとんど知られていない。
我々は、個人が3つのグループにまたがる責任あるAIの価値観をどのように認識し、優先順位付けしているかを調査した。
論文 参考訳(メタデータ) (2022-05-16T14:39:37Z) - Distributive Justice and Fairness Metrics in Automated Decision-making:
How Much Overlap Is There? [0.0]
機会の平等を実践する指標は、資源割り当てが保存性に基づいている場合にのみ適用されるが、アロケーションが平等主義、十分性、優先順位に関する懸念を反映すべきときに失敗することを示す。
予測タスクと意思決定タスクをきれいに区別することで、公平な機械学習の研究は分散的正義に関する豊かな文献をよりうまく活用できると論じている。
論文 参考訳(メタデータ) (2021-05-04T12:09:26Z) - Assessing Demographic Bias in Named Entity Recognition [0.21485350418225244]
合成コーパスを用いたグループ間における英語の固有認識システムのバイアス評価を行った。
ELMoのような文字ベースの文脈化された単語表現モデルは、人口統計学において最小のバイアスをもたらす。
論文 参考訳(メタデータ) (2020-08-08T02:01:25Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。