論文の概要: 'Rich Dad, Poor Lad': How do Large Language Models Contextualize Socioeconomic Factors in College Admission ?
- arxiv url: http://arxiv.org/abs/2509.16400v1
- Date: Fri, 19 Sep 2025 20:22:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:15.77513
- Title: 'Rich Dad, Poor Lad': How do Large Language Models Contextualize Socioeconomic Factors in College Admission ?
- Title(参考訳): 「Rich Dad, Poor Lad」:大規模言語モデルが大学入学時の社会経済要因をどのように文脈化するか?
- Authors: Huy Nghiem, Phuong-Anh Nguyen-Le, John Prindle, Rachel Rudinger, Hal Daumé III,
- Abstract要約: 大規模言語モデル(LLM)は、ハイテイクなドメインにますます関与している。
本稿では,認知科学にインスパイアされた新しいデュアルプロセスフレームワークを用いて,大学入学決定におけるLLMの社会経済的地位(SES)に関する大規模監査を行う。
- 参考スコア(独自算出の注目度): 40.570456656002136
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) are increasingly involved in high-stakes domains, yet how they reason about socially sensitive decisions remains underexplored. We present a large-scale audit of LLMs' treatment of socioeconomic status (SES) in college admissions decisions using a novel dual-process framework inspired by cognitive science. Leveraging a synthetic dataset of 30,000 applicant profiles grounded in real-world correlations, we prompt 4 open-source LLMs (Qwen 2, Mistral v0.3, Gemma 2, Llama 3.1) under 2 modes: a fast, decision-only setup (System 1) and a slower, explanation-based setup (System 2). Results from 5 million prompts reveal that LLMs consistently favor low-SES applicants -- even when controlling for academic performance -- and that System 2 amplifies this tendency by explicitly invoking SES as compensatory justification, highlighting both their potential and volatility as decision-makers. We then propose DPAF, a dual-process audit framework to probe LLMs' reasoning behaviors in sensitive applications.
- Abstract(参考訳): 大規模言語モデル(LLM)は、ハイテイクなドメインにますます関与している。
本稿では,認知科学にインスパイアされた新しいデュアルプロセスフレームワークを用いて,大学入学決定におけるLLMの社会経済的地位(SES)に関する大規模監査を行う。
実世界の相関関係に基づいた3万件の応募者プロファイルの合成データセットを活用することで、4つのオープンソースLCM(Qwen 2, Mistral v0.3, Gemma 2, Llama 3.1)を高速で意思決定のみのセットアップ(System 1)と遅い説明ベースセットアップ(System 2)という2つのモードで実行します。
500万件のプロンプトの結果、LLMは一貫して低SES申請者(学業成績を管理する場合でも)を好んでおり、システム2はSESを補償的正当化として明示的に呼び起こし、意思決定者としての可能性とボラティリティの両方を強調して、この傾向を増幅していることが明らかとなった。
次に、機密アプリケーションにおけるLCMの推論動作を探索する2プロセス監査フレームワークDPAFを提案する。
関連論文リスト
- From System 1 to System 2: A Survey of Reasoning Large Language Models [72.87412996793957]
基礎的な大規模言語モデルは、迅速な意思決定では優れているが、複雑な推論には深みがない。
OpenAIのo1/o3とDeepSeekのR1は、数学やコーディングといった分野のエキスパートレベルのパフォーマンスを実証している。
論文 参考訳(メタデータ) (2025-02-24T18:50:52Z) - LogiDynamics: Unraveling the Dynamics of Inductive, Abductive and Deductive Logical Inferences in LLM Reasoning [74.0242521818214]
本稿では,大言語モデル(LLM)におけるインダクティブ(システム1)と帰納的/帰納的(システム2)の推論の比較力学を体系的に検討する。
我々は、制御されたアナログ推論環境、多様度(テキスト、視覚、記号)、難易度、タスク形式(MCQ/フリーテキスト)を利用する。
我々の分析によると、System 2のパイプラインは一般的に、特に視覚的/象徴的なモダリティや難しいタスクにおいて優れており、System 1はテキストやより簡単な問題に対して競争力がある。
論文 参考訳(メタデータ) (2025-02-16T15:54:53Z) - LLM2: Let Large Language Models Harness System 2 Reasoning [65.89293674479907]
大規模言語モデル(LLM)は、無数のタスクにまたがって印象的な機能を示してきたが、時には望ましくない出力が得られる。
本稿では LLM とプロセスベースの検証器を組み合わせた新しいフレームワーク LLM2 を紹介する。
LLMs2は妥当な候補を生成するのに責任を持ち、検証者は望ましい出力と望ましくない出力を区別するためにタイムリーなプロセスベースのフィードバックを提供する。
論文 参考訳(メタデータ) (2024-12-29T06:32:36Z) - Assessing Hidden Risks of LLMs: An Empirical Study on Robustness,
Consistency, and Credibility [37.682136465784254]
我々は、ChatGPT、LLaMA、OPTを含む、主流の大規模言語モデル(LLM)に100万以上のクエリを実行します。
入力が極端に汚染された場合でも、ChatGPTは正しい答えを得ることができる。
そこで本研究では,LCMによる評価において,そのようなデータの有効性を大まかに決定する新たな指標を提案する。
論文 参考訳(メタデータ) (2023-05-15T15:44:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。