論文の概要: Language, Caste, and Context: Demographic Disparities in AI-Generated Explanations Across Indian and American STEM Educational Systems
- arxiv url: http://arxiv.org/abs/2601.14506v1
- Date: Tue, 20 Jan 2026 21:58:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-22 21:27:50.163009
- Title: Language, Caste, and Context: Demographic Disparities in AI-Generated Explanations Across Indian and American STEM Educational Systems
- Title(参考訳): 言語, キャスター, コンテキスト:インドとアメリカのSTEM教育システムにおけるAI生成説明におけるデモグラフィックの差異
- Authors: Amogh Gupta, Niharika Patil, Sourojit Ghosh, SnehalKumar, S Gaikwad,
- Abstract要約: 本稿では,LLMが学生プロフィールの知的能力をどのように捉えているのかを,異なる文化的文脈における辺境的アイデンティティの交差から問う。
インドにおけるカースト、教科、教育委員会、および人種、HBCU出席者、アメリカにおける学校タイプを組み合わせたプロフィールを構築し、所得や大学階層といった普遍的な要因について検討する。
両文脈の背景を疎外したプロファイルに低品質な出力を提供するバイアスを観察する。
- 参考スコア(独自算出の注目度): 2.0722928522838693
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The popularization of AI chatbot usage globally has created opportunities for research into their benefits and drawbacks, especially for students using AI assistants for coursework support. This paper asks: how do LLMs perceive the intellectual capabilities of student profiles from intersecting marginalized identities across different cultural contexts? We conduct one of the first large-scale intersectional analyses on LLM explanation quality for Indian and American undergraduate profiles preparing for engineering entrance examinations. By constructing profiles combining multiple demographic dimensions including caste, medium of instruction, and school boards in India, and race, HBCU attendance, and school type in America, alongside universal factors like income and college tier, we examine how quality varies across these factors. We observe biases providing lower-quality outputs to profiles with marginalized backgrounds in both contexts. LLMs such as Qwen2.5-32B-Instruct and GPT-4o demonstrate granular understandings of context-specific discrimination, systematically providing simpler explanations to Hindi/Regional-medium students in India and HBCU profiles in America, treating these as proxies for lower capability. Even when marginalized profiles attain social mobility by getting accepted into elite institutions, they still receive more simplistic explanations, showing how demographic information is inextricably linked to LLM biases. Different models (Qwen2.5-32B-Instruct, GPT-4o, GPT-4o-mini, GPT-OSS 20B) embed similar biases against historically marginalized populations in both contexts, preventing profiles from switching between AI assistants for better results. Our findings have strong implications for AI incorporation into global engineering education.
- Abstract(参考訳): AIチャットボットの普及は、そのメリットと欠点、特にコースワークのサポートにAIアシスタントを使用している学生に研究の機会を与えている。
この論文は、LLMは学生のプロフィールの知的能力を、異なる文化的文脈における限界化されたアイデンティティの交差からどう捉えているか?
工学部入学試験に備えたインドとアメリカの大学生を対象に,LLM説明品質に関する大規模交差点解析を行った。
インドにおけるカースト、中等教育、学校ボード、人種、HBCU出席者、アメリカにおける学校タイプといった複数の人口動態のプロフィールを、所得や大学階層といった普遍的な要因とともに構築することにより、これらの要因の質がどのように変化するかを検討する。
両文脈の背景を疎外したプロファイルに低品質な出力を提供するバイアスを観察する。
Qwen2.5-32B-Instruct や GPT-4o といった LLM は,インドにおけるヒンディー語/レギナル・メジウム(Hindi/Regional-medium) の学生やアメリカのHBCU のプロフィールに対して,より単純な説明を体系的に提供し,これらを低能力のプロキシとして扱う。
エリート機関に受け入れられることによって社会的モビリティが限界に達しても、人口統計情報がLLMバイアスとどのように密接に結びついているかを示す、より単純化された説明を受ける。
異なるモデル(Qwen2.5-32B-Instruct, GPT-4o, GPT-4o-mini, GPT-OSS 20B)は、両方の文脈において、歴史的に疎外された人口に対する同様のバイアスを埋め込むことで、プロファイルがより良い結果を得るためにAIアシスタント間の切り替えを防止する。
我々の発見は、グローバルエンジニアリング教育にAIを取り入れることに強く影響している。
関連論文リスト
- Invisible Filters: Cultural Bias in Hiring Evaluations Using Large Language Models [2.48490797934472]
人工知能(AI)は雇用にますます使われており、大きな言語モデル(LLM)は雇用決定に影響を与える可能性がある。
このことは、バイアス、公平性、信頼について、特にさまざまな文化的文脈において、強い関心を喚起します。
我々は,LLMが文化・アイデンティティの面から求人面接をどのように評価するかを体系的に分析する。
論文 参考訳(メタデータ) (2025-08-21T07:45:00Z) - Addressing Bias in LLMs: Strategies and Application to Fair AI-based Recruitment [49.81946749379338]
この研究は、トランスフォーマーベースのシステムの能力を分析して、データに存在する人口統計バイアスを学習する。
最終ツールにおける偏りを緩和する手段として,学習パイプラインからの性別情報を削減するためのプライバシー向上フレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-13T15:29:43Z) - What Does a Software Engineer Look Like? Exploring Societal Stereotypes in LLMs [9.007321855123882]
本研究では,OpenAIのGPT-4とMicrosoft Copilotが,性別や人種のステレオタイプをいかに強化するかを検討する。
それぞれのLSMを用いて300のプロファイルを生成し,100の性別ベースと50の性別ニュートラルプロファイルで構成された。
分析の結果,両モデルとも男性とコーカサス人のプロファイルが好まれていることが明らかとなった。
論文 参考訳(メタデータ) (2025-01-07T06:44:41Z) - Embracing AI in Education: Understanding the Surge in Large Language Model Use by Secondary Students [53.20318273452059]
OpenAIのChatGPTのような大規模言語モデル(LLM)は、新しい教育の道を開いた。
学校制限にもかかわらず,中高生300人以上を対象に調査を行ったところ,学生の70%がLDMを利用していることがわかった。
我々は、対象特化モデル、パーソナライズドラーニング、AI教室など、このような問題に対処するいくつかのアイデアを提案する。
論文 参考訳(メタデータ) (2024-11-27T19:19:34Z) - Large Language Models Reflect the Ideology of their Creators [71.65505524599888]
大規模言語モデル(LLM)は、自然言語を生成するために大量のデータに基づいて訓練される。
本稿では, LLMのイデオロギー的姿勢が創造者の世界観を反映していることを示す。
論文 参考訳(メタデータ) (2024-10-24T04:02:30Z) - White Men Lead, Black Women Help? Benchmarking and Mitigating Language Agency Social Biases in LLMs [58.27353205269664]
社会的バイアスは、Large Language Model(LLM)生成コンテンツにおいて言語エージェンシーに現れる。
LLMのバイアスを包括的に評価するLanguage Agency Bias Evaluationベンチマークを導入する。
LABEを用いて,近年の3つのLLM(ChatGPT,Llama3,Mistral)における言語エージェントの社会的バイアスを明らかにした。
論文 参考訳(メタデータ) (2024-04-16T12:27:54Z) - Investigating Subtler Biases in LLMs: Ageism, Beauty, Institutional, and Nationality Bias in Generative Models [0.0]
本稿では, 年齢や美しさなど, 研究の少ない, 連続的な, 次元に沿ったバイアスについて検討する。
実験心理学において, LLMは, 特定の社会集団に対して, 肯定的, 否定的感情の偏見を広く抱いているか, あるいは「美しいものは良い」バイアスと類似しているかを問う。
論文 参考訳(メタデータ) (2023-09-16T07:07:04Z) - Towards Understanding and Mitigating Social Biases in Language Models [107.82654101403264]
大規模事前訓練言語モデル(LM)は、望ましくない表現バイアスを示すのに潜在的に危険である。
テキスト生成における社会的バイアスを軽減するためのステップを提案する。
我々の経験的結果と人的評価は、重要な文脈情報を保持しながらバイアスを緩和する効果を示す。
論文 参考訳(メタデータ) (2021-06-24T17:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。