論文の概要: LLMs Do Not See Age: Assessing Demographic Bias in Automated Systematic Review Synthesis
- arxiv url: http://arxiv.org/abs/2511.06000v1
- Date: Sat, 08 Nov 2025 13:12:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:44.703634
- Title: LLMs Do Not See Age: Assessing Demographic Bias in Automated Systematic Review Synthesis
- Title(参考訳): LLMは年齢を知らない: 自動システムレビュー合成におけるデモグラフィックバイアスの評価
- Authors: Favour Yahdii Aghaebe, Tanefa Apekey, Elizabeth Williams, Nafise Sadat Moosavi,
- Abstract要約: 我々は,生物医学研究の抽象的な要約を生成する際に,最先端の言語モデルが年齢関連情報をいかによく保持するかを評価する。
我々は,体系的レビュー初等研究の年齢階層化データセットであるDemogSummaryを構築した。
- 参考スコア(独自算出の注目度): 10.334277776439423
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Clinical interventions often hinge on age: medications and procedures safe for adults may be harmful to children or ineffective for older adults. However, as language models are increasingly integrated into biomedical evidence synthesis workflows, it remains uncertain whether these systems preserve such crucial demographic distinctions. To address this gap, we evaluate how well state-of-the-art language models retain age-related information when generating abstractive summaries of biomedical studies. We construct DemogSummary, a novel age-stratified dataset of systematic review primary studies, covering child, adult, and older adult populations. We evaluate three prominent summarisation-capable LLMs, Qwen (open-source), Longformer (open-source) and GPT-4.1 Nano (proprietary), using both standard metrics and a newly proposed Demographic Salience Score (DSS), which quantifies age-related entity retention and hallucination. Our results reveal systematic disparities across models and age groups: demographic fidelity is lowest for adult-focused summaries, and under-represented populations are more prone to hallucinations. These findings highlight the limitations of current LLMs in faithful and bias-free summarisation and point to the need for fairness-aware evaluation frameworks and summarisation pipelines in biomedical NLP.
- Abstract(参考訳): 成人に安全な薬品や処置は、子供に有害か、高齢者に不有効である。
しかし、言語モデルがバイオメディカルエビデンス合成ワークフローにますます統合されているため、これらのシステムがそのような重要な人口統計学的区別を維持しているかどうかは不明である。
このギャップに対処するため、生物医学研究の抽象的な要約を生成する際に、最先端の言語モデルが年齢関連情報をいかに適切に保持するかを評価する。
子ども, 成人, 高齢者を対象とした, 体系的レビュー初等研究の年齢階層化データセットであるDemogSummaryを構築した。
我々は,3つの顕著な要約可能なLCM,Qwen(オープンソース),Longformer(オープンソース),GPT-4.1 Nano(プロプライエタリ)を評価し,標準指標と新たなデモグラフィック・サリエンススコア(DSS)を用いて,年齢関連エンティティの保持と幻覚を定量化する。
人口密度は成人向けサマリーでは最低であり, 人口密度の低さは幻覚の傾向が強い。
これらの知見は, 忠実かつ偏見のない要約における現在のLCMの限界を浮き彫りにして, バイオメディカルNLPにおける公平性を考慮した評価フレームワークや要約パイプラインの必要性を指摘する。
関連論文リスト
- Artificial Hivemind: The Open-Ended Homogeneity of Language Models (and Beyond) [90.45301024940329]
言語モデル(LM)は、多様で人間らしい創造的コンテンツを生成するのに苦労することが多い。
Infinity-Chatは26万の多様な実世界のオープンエンドユーザクエリからなる大規模データセットである。
本研究では, LMのモード崩壊について大規模に検討し, 人工Hivemind効果が明らかとなった。
論文 参考訳(メタデータ) (2025-10-27T03:16:21Z) - Evaluating LLMs for Demographic-Targeted Social Bias Detection: A Comprehensive Benchmark Study [1.6682715542079583]
汎用AIモデルのトレーニングに使用される大規模なウェブスクレイプテキストコーパスは、しばしば有害な人口統計学的対象の社会的バイアスを含んでいる。
本稿では、人口統計学的対象の社会的偏見を検出するためのLCMの能力を評価するための、英語テキストを対象とした総合的な評価フレームワークを提案する。
次に,学習の促進,文脈内学習,微調整など,スケールとテクニックをまたいだモデルを用いて,体系的な評価を行う。
論文 参考訳(メタデータ) (2025-10-06T09:45:32Z) - Bridging the gap in FER: addressing age bias in deep learning [0.562479170374811]
深部FERモデルにおける年齢関連バイアスについて検討し,特に高齢者に焦点をあてた。
説明可能なAI(XAI)技術を用いて,表現認識と注意パターンの系統的差異を同定する。
その結果,高齢者の認識精度は一貫した改善が見られた。
論文 参考訳(メタデータ) (2025-07-10T11:07:13Z) - Generative AI for Synthetic Data Across Multiple Medical Modalities: A Systematic Review of Recent Developments and Challenges [2.1835659964186087]
本稿では,様々な医療データ型を合成するための生成モデルについて,体系的に検討する。
本研究は、幅広い医療データモダリティを包含し、様々な生成モデルについて検討する。
論文 参考訳(メタデータ) (2024-06-27T14:00:11Z) - A Demographic-Conditioned Variational Autoencoder for fMRI Distribution Sampling and Removal of Confounds [49.34500499203579]
変動型オートエンコーダ(VAE)ベースのモデルであるDemoVAEを作成し、人口統計学から fMRI の特徴を推定する。
ユーザが供給する人口動態に基づいて,高品質な合成fMRIデータを生成する。
論文 参考訳(メタデータ) (2024-05-13T17:49:20Z) - VALOR-EVAL: Holistic Coverage and Faithfulness Evaluation of Large Vision-Language Models [57.43276586087863]
LVLM(Large Vision-Language Models)は幻覚に悩まされ、このモデルでは可聴音を発生させるが、実際には誤出力を発生させる。
既存のベンチマークはスコープに限られており、主にオブジェクト幻覚に焦点を当てている。
対象,属性,関係を多次元のベンチマークで表現し,連想バイアスに基づいて画像を選択する。
論文 参考訳(メタデータ) (2024-04-22T04:49:22Z) - The Generation Gap: Exploring Age Bias in the Value Systems of Large Language Models [26.485974783643464]
特に米国人口と比較して,若年層に対するLLM(Large Language Models)値の一般的な傾向を見出した。
一般的な傾きは観察できるが、若いグループに対するこの傾きは、異なる値のカテゴリで異なることが判明した。
論文 参考訳(メタデータ) (2024-04-12T18:36:20Z) - Sensitivity, Performance, Robustness: Deconstructing the Effect of
Sociodemographic Prompting [64.80538055623842]
社会デマトグラフィープロンプトは、特定の社会デマトグラフィープロファイルを持つ人間が与える答えに向けて、プロンプトベースのモデルの出力を操縦する技術である。
ソシオデマトグラフィー情報はモデル予測に影響を及ぼし、主観的NLPタスクにおけるゼロショット学習を改善するのに有用であることを示す。
論文 参考訳(メタデータ) (2023-09-13T15:42:06Z) - Bias and Fairness in Large Language Models: A Survey [73.87651986156006]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z) - Relational Subsets Knowledge Distillation for Long-tailed Retinal
Diseases Recognition [65.77962788209103]
本研究では,長尾データを知識に基づいて複数のクラスサブセットに分割し,クラスサブセット学習を提案する。
モデルがサブセット固有の知識の学習に集中するように強制する。
提案手法は長期網膜疾患認識タスクに有効であることが判明した。
論文 参考訳(メタデータ) (2021-04-22T13:39:33Z) - Age-Net: An MRI-Based Iterative Framework for Brain Biological Age
Estimation [18.503467872057424]
生物学的年齢(BA)の概念は、主に明確に定義された基準基準が欠如していることから理解するのが困難である。
臓器特異的BA推定のための新しい画像ベースフレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-22T19:04:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。