論文の概要: Where Should I Study? Biased Language Models Decide! Evaluating Fairness in LMs for Academic Recommendations
- arxiv url: http://arxiv.org/abs/2509.04498v1
- Date: Mon, 01 Sep 2025 19:51:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-08 14:27:25.334735
- Title: Where Should I Study? Biased Language Models Decide! Evaluating Fairness in LMs for Academic Recommendations
- Title(参考訳): 学習すべき場所は? バイアス言語モデルが決定する! 学術勧告におけるLMの公正性の評価
- Authors: Krithi Shailya, Akhilesh Kumar Mishra, Gokul S Krishnan, Balaraman Ravindran,
- Abstract要約: 大きな言語モデル(LLM)は、教育計画のようなタスクの日々のレコメンデーションシステムとして、ますます使われています。
本稿では,大学における地理的,人口的,経済的バイアスを実証的に検討し,プログラムの提案を行う。
- 参考スコア(独自算出の注目度): 5.056582586833467
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) are increasingly used as daily recommendation systems for tasks like education planning, yet their recommendations risk perpetuating societal biases. This paper empirically examines geographic, demographic, and economic biases in university and program suggestions from three open-source LLMs: LLaMA-3.1-8B, Gemma-7B, and Mistral-7B. Using 360 simulated user profiles varying by gender, nationality, and economic status, we analyze over 25,000 recommendations. Results show strong biases: institutions in the Global North are disproportionately favored, recommendations often reinforce gender stereotypes, and institutional repetition is prevalent. While LLaMA-3.1 achieves the highest diversity, recommending 481 unique universities across 58 countries, systemic disparities persist. To quantify these issues, we propose a novel, multi-dimensional evaluation framework that goes beyond accuracy by measuring demographic and geographic representation. Our findings highlight the urgent need for bias consideration in educational LMs to ensure equitable global access to higher education.
- Abstract(参考訳): 大きな言語モデル(LLM)は、教育計画のようなタスクのための日々のレコメンデーションシステムとしてますます使われていますが、そのレコメンデーションは社会的バイアスを持続させるリスクがあります。
本稿では,大学における地理的,人口的,経済的バイアスを実証的に検討し,LLaMA-3.1-8B,Gemma-7B,Mistral-7Bの3つのオープンソースLCMのプログラム提案を行う。
性別、国籍、経済状況によって異なる360度シミュレーションされたユーザープロフィールを用いて、25,000以上の推奨事項を分析した。
結果は強い偏見を示しており、グローバル・ノースの制度は不均等に好まれ、レコメンデーションはしばしばジェンダーのステレオタイプを強化し、制度的な反復が一般的である。
LLaMA-3.1は58か国481の大学を推薦するが、制度的な格差は続く。
これらの問題を定量化するために,人口統計と地理的表現を計測し,精度を超える新しい多次元評価フレームワークを提案する。
本研究は,高等教育への平等なグローバルアクセスを確保するため,教育用LMのバイアス配慮の必要性を浮き彫りにするものである。
関連論文リスト
- Whose Name Comes Up? Auditing LLM-Based Scholar Recommendations [2.548716674644006]
本稿では,5つのタスクにまたがる物理分野の専門家を推薦するために,6つのオープンウェイトLDMの性能を評価する。
この評価は、性、民族性、学術的人気、学者の類似性に関連する一貫性、事実性、偏見について検討する。
論文 参考訳(メタデータ) (2025-05-29T20:11:11Z) - LLMs are Biased Teachers: Evaluating LLM Bias in Personalized Education [6.354025374447606]
パーソナライズされた教育環境において,大きな言語モデル(LLM)をバイアスとして評価する。
我々は、異なる人口集団に合わせた教育コンテンツをモデルが生成し、選択する方法について、重大なバイアスを明らかにした。
論文 参考訳(メタデータ) (2024-10-17T20:27:44Z) - GenderCARE: A Comprehensive Framework for Assessing and Reducing Gender Bias in Large Language Models [73.23743278545321]
大規模言語モデル(LLM)は、自然言語生成において顕著な能力を示してきたが、社会的バイアスを増大させることも観察されている。
GenderCAREは、革新的な基準、バイアス評価、リダクションテクニック、評価メトリクスを含む包括的なフレームワークである。
論文 参考訳(メタデータ) (2024-08-22T15:35:46Z) - "You Gotta be a Doctor, Lin": An Investigation of Name-Based Bias of Large Language Models in Employment Recommendations [29.183942575629214]
我々はGPT-3.5-TurboとLlama 3-70B-Instructを利用して、人種や性別を強く示す320のファーストネームを持つ候補者の雇用決定と給与勧告をシミュレートする。
以上の結果から,40の職種にまたがる他の人口集団よりも,白人女性の名前を持つ候補者を雇用する傾向が示唆された。
論文 参考訳(メタデータ) (2024-06-18T03:11:43Z) - White Men Lead, Black Women Help? Benchmarking and Mitigating Language Agency Social Biases in LLMs [58.27353205269664]
社会的バイアスは、Large Language Model(LLM)生成コンテンツにおいて言語エージェンシーに現れる。
LLMのバイアスを包括的に評価するLanguage Agency Bias Evaluationベンチマークを導入する。
LABEを用いて,近年の3つのLLM(ChatGPT,Llama3,Mistral)における言語エージェントの社会的バイアスを明らかにした。
論文 参考訳(メタデータ) (2024-04-16T12:27:54Z) - Large Language Models are Geographically Biased [47.88767211956144]
我々は、地理のレンズを通して、我々の住む世界について、Large Language Models (LLM)が何を知っているかを研究する。
我々は,地理空間予測において,システム的誤りと定義する,様々な問題的地理的バイアスを示す。
論文 参考訳(メタデータ) (2024-02-05T02:32:09Z) - GPTBIAS: A Comprehensive Framework for Evaluating Bias in Large Language
Models [83.30078426829627]
大規模言語モデル(LLM)は人気を集め、大規模なユーザコミュニティで広く採用されている。
既存の評価手法には多くの制約があり、それらの結果は限定的な解釈可能性を示している。
本稿では,LPMの高性能性を活用し,モデル内のバイアスを評価するGPTBIASというバイアス評価フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-11T12:02:14Z) - The Unequal Opportunities of Large Language Models: Revealing
Demographic Bias through Job Recommendations [5.898806397015801]
大規模言語モデル(LLM)における人口統計バイアスの分析と比較のための簡易な手法を提案する。
本稿では,ChatGPTとLLaMAの交差バイアスを計測し,本手法の有効性を示す。
両モデルとも、メキシコ労働者の低賃金雇用を一貫して示唆するなど、さまざまな人口統計学的アイデンティティに対する偏見を識別する。
論文 参考訳(メタデータ) (2023-08-03T21:12:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。