論文の概要: Where Should I Study? Biased Language Models Decide! Evaluating Fairness in LMs for Academic Recommendations
- arxiv url: http://arxiv.org/abs/2509.04498v1
- Date: Mon, 01 Sep 2025 19:51:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-08 14:27:25.334735
- Title: Where Should I Study? Biased Language Models Decide! Evaluating Fairness in LMs for Academic Recommendations
- Title(参考訳): 学習すべき場所は? バイアス言語モデルが決定する! 学術勧告におけるLMの公正性の評価
- Authors: Krithi Shailya, Akhilesh Kumar Mishra, Gokul S Krishnan, Balaraman Ravindran,
- Abstract要約: 大きな言語モデル(LLM)は、教育計画のようなタスクの日々のレコメンデーションシステムとして、ますます使われています。
本稿では,大学における地理的,人口的,経済的バイアスを実証的に検討し,プログラムの提案を行う。
- 参考スコア(独自算出の注目度): 5.056582586833467
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) are increasingly used as daily recommendation systems for tasks like education planning, yet their recommendations risk perpetuating societal biases. This paper empirically examines geographic, demographic, and economic biases in university and program suggestions from three open-source LLMs: LLaMA-3.1-8B, Gemma-7B, and Mistral-7B. Using 360 simulated user profiles varying by gender, nationality, and economic status, we analyze over 25,000 recommendations. Results show strong biases: institutions in the Global North are disproportionately favored, recommendations often reinforce gender stereotypes, and institutional repetition is prevalent. While LLaMA-3.1 achieves the highest diversity, recommending 481 unique universities across 58 countries, systemic disparities persist. To quantify these issues, we propose a novel, multi-dimensional evaluation framework that goes beyond accuracy by measuring demographic and geographic representation. Our findings highlight the urgent need for bias consideration in educational LMs to ensure equitable global access to higher education.
- Abstract(参考訳): 大きな言語モデル(LLM)は、教育計画のようなタスクのための日々のレコメンデーションシステムとしてますます使われていますが、そのレコメンデーションは社会的バイアスを持続させるリスクがあります。
本稿では,大学における地理的,人口的,経済的バイアスを実証的に検討し,LLaMA-3.1-8B,Gemma-7B,Mistral-7Bの3つのオープンソースLCMのプログラム提案を行う。
性別、国籍、経済状況によって異なる360度シミュレーションされたユーザープロフィールを用いて、25,000以上の推奨事項を分析した。
結果は強い偏見を示しており、グローバル・ノースの制度は不均等に好まれ、レコメンデーションはしばしばジェンダーのステレオタイプを強化し、制度的な反復が一般的である。
LLaMA-3.1は58か国481の大学を推薦するが、制度的な格差は続く。
これらの問題を定量化するために,人口統計と地理的表現を計測し,精度を超える新しい多次元評価フレームワークを提案する。
本研究は,高等教育への平等なグローバルアクセスを確保するため,教育用LMのバイアス配慮の必要性を浮き彫りにするものである。
関連論文リスト
- "As Eastern Powers, I will veto." : An Investigation of Nation-level Bias of Large Language Models in International Relations [7.585969077788284]
本稿では国際関係領域(IR)における大規模言語モデル(LLM)による国家レベルの偏見を体系的に検討する。
各国のLLMにおける国家レベルのバイアスを探索する3つの異なるテストからなるバイアス評価フレームワークを開発した。
本稿では,LLMとRetrieval-Augmented GenerationとReflexion-based self-reflex(自己回帰)技術を組み合わせることで,現実的推論を改善する脱バイアスフレームワークを提案する。
論文 参考訳(メタデータ) (2025-11-12T08:42:54Z) - Whose Name Comes Up? Auditing LLM-Based Scholar Recommendations [2.548716674644006]
本稿では,5つのタスクにまたがる物理分野の専門家を推薦するために,6つのオープンウェイトLDMの性能を評価する。
この評価は、性、民族性、学術的人気、学者の類似性に関連する一貫性、事実性、偏見について検討する。
論文 参考訳(メタデータ) (2025-05-29T20:11:11Z) - Whose Journey Matters? Investigating Identity Biases in Large Language Models (LLMs) for Travel Planning Assistance [6.321662057187393]
本研究では,大規模言語モデル(LLM)による旅行推薦における民族的・ジェンダー的偏見について検討する。
その結果,人種別と性別別の両方の検定精度がランダムな確率を超えていることが示唆された。
本研究は,AIによる旅行計画支援の傾向と信頼性を向上させるため,バイアス軽減戦略の必要性を明らかにするものである。
論文 参考訳(メタデータ) (2024-10-22T18:08:25Z) - LLMs are Biased Teachers: Evaluating LLM Bias in Personalized Education [6.354025374447606]
パーソナライズされた教育環境において,大きな言語モデル(LLM)をバイアスとして評価する。
我々は、異なる人口集団に合わせた教育コンテンツをモデルが生成し、選択する方法について、重大なバイアスを明らかにした。
論文 参考訳(メタデータ) (2024-10-17T20:27:44Z) - GenderCARE: A Comprehensive Framework for Assessing and Reducing Gender Bias in Large Language Models [73.23743278545321]
大規模言語モデル(LLM)は、自然言語生成において顕著な能力を示してきたが、社会的バイアスを増大させることも観察されている。
GenderCAREは、革新的な基準、バイアス評価、リダクションテクニック、評価メトリクスを含む包括的なフレームワークである。
論文 参考訳(メタデータ) (2024-08-22T15:35:46Z) - Representation Bias in Political Sample Simulations with Large Language Models [54.48283690603358]
本研究は,大規模言語モデルを用いた政治サンプルのシミュレーションにおけるバイアスの同定と定量化を目的とする。
GPT-3.5-Turboモデルを用いて、米国選挙研究、ドイツ縦割り選挙研究、ズオビアオデータセット、中国家族パネル研究のデータを活用する。
論文 参考訳(メタデータ) (2024-07-16T05:52:26Z) - VLBiasBench: A Comprehensive Benchmark for Evaluating Bias in Large Vision-Language Model [72.13121434085116]
我々は、LVLM(Large Vision-Language Models)におけるバイアスを評価するベンチマークであるVLBiasBenchを紹介する。
VLBiasBenchは、年齢、障害ステータス、性別、国籍、身体的外観、人種、宗教、職業、社会経済ステータスを含む9つの異なる社会バイアスのカテゴリを含むデータセットと、人種x性別と人種x社会経済ステータスの2つの交叉バイアスのカテゴリを含む。
15のオープンソースモデルと2つの高度なクローズドソースモデルに対して広範な評価を行い、これらのモデルに存在するバイアスに関する新たな洞察を得る。
論文 参考訳(メタデータ) (2024-06-20T10:56:59Z) - "You Gotta be a Doctor, Lin": An Investigation of Name-Based Bias of Large Language Models in Employment Recommendations [29.183942575629214]
我々はGPT-3.5-TurboとLlama 3-70B-Instructを利用して、人種や性別を強く示す320のファーストネームを持つ候補者の雇用決定と給与勧告をシミュレートする。
以上の結果から,40の職種にまたがる他の人口集団よりも,白人女性の名前を持つ候補者を雇用する傾向が示唆された。
論文 参考訳(メタデータ) (2024-06-18T03:11:43Z) - White Men Lead, Black Women Help? Benchmarking and Mitigating Language Agency Social Biases in LLMs [58.27353205269664]
社会的バイアスは、Large Language Model(LLM)生成コンテンツにおいて言語エージェンシーに現れる。
LLMのバイアスを包括的に評価するLanguage Agency Bias Evaluationベンチマークを導入する。
LABEを用いて,近年の3つのLLM(ChatGPT,Llama3,Mistral)における言語エージェントの社会的バイアスを明らかにした。
論文 参考訳(メタデータ) (2024-04-16T12:27:54Z) - Large Language Models are Geographically Biased [47.88767211956144]
我々は、地理のレンズを通して、我々の住む世界について、Large Language Models (LLM)が何を知っているかを研究する。
我々は,地理空間予測において,システム的誤りと定義する,様々な問題的地理的バイアスを示す。
論文 参考訳(メタデータ) (2024-02-05T02:32:09Z) - GPTBIAS: A Comprehensive Framework for Evaluating Bias in Large Language
Models [83.30078426829627]
大規模言語モデル(LLM)は人気を集め、大規模なユーザコミュニティで広く採用されている。
既存の評価手法には多くの制約があり、それらの結果は限定的な解釈可能性を示している。
本稿では,LPMの高性能性を活用し,モデル内のバイアスを評価するGPTBIASというバイアス評価フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-11T12:02:14Z) - The Unequal Opportunities of Large Language Models: Revealing
Demographic Bias through Job Recommendations [5.898806397015801]
大規模言語モデル(LLM)における人口統計バイアスの分析と比較のための簡易な手法を提案する。
本稿では,ChatGPTとLLaMAの交差バイアスを計測し,本手法の有効性を示す。
両モデルとも、メキシコ労働者の低賃金雇用を一貫して示唆するなど、さまざまな人口統計学的アイデンティティに対する偏見を識別する。
論文 参考訳(メタデータ) (2023-08-03T21:12:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。