論文の概要: Fine-Tuned LLMs are "Time Capsules" for Tracking Societal Bias Through Books
- arxiv url: http://arxiv.org/abs/2502.05331v1
- Date: Fri, 07 Feb 2025 21:13:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-11 14:33:07.303741
- Title: Fine-Tuned LLMs are "Time Capsules" for Tracking Societal Bias Through Books
- Title(参考訳): 微調整LDMは「時間カプセル」で本を通して社会バイアスを追跡する
- Authors: Sangmitra Madhusudan, Robert Morabito, Skye Reid, Nikta Gohari Sadr, Ali Emami,
- Abstract要約: 我々は,70年間にわたる593冊の架空の書物からなるコーパス,0%から0%の開発(1950-2019)
性別、性的指向、人種、宗教に関する偏見の変化について検討する。
以上の結果から,10年分の本を学習したLCMは,その時代を反映する偏見を示すことが示唆された。
- 参考スコア(独自算出の注目度): 5.770485638414148
- License:
- Abstract: Books, while often rich in cultural insights, can also mirror societal biases of their eras - biases that Large Language Models (LLMs) may learn and perpetuate during training. We introduce a novel method to trace and quantify these biases using fine-tuned LLMs. We develop BookPAGE, a corpus comprising 593 fictional books across seven decades (1950-2019), to track bias evolution. By fine-tuning LLMs on books from each decade and using targeted prompts, we examine shifts in biases related to gender, sexual orientation, race, and religion. Our findings indicate that LLMs trained on decade-specific books manifest biases reflective of their times, with both gradual trends and notable shifts. For example, model responses showed a progressive increase in the portrayal of women in leadership roles (from 8% to 22%) from the 1950s to 2010s, with a significant uptick in the 1990s (from 4% to 12%), possibly aligning with third-wave feminism. Same-sex relationship references increased markedly from the 1980s to 2000s (from 0% to 10%), mirroring growing LGBTQ+ visibility. Concerningly, negative portrayals of Islam rose sharply in the 2000s (26% to 38%), likely reflecting post-9/11 sentiments. Importantly, we demonstrate that these biases stem mainly from the books' content and not the models' architecture or initial training. Our study offers a new perspective on societal bias trends by bridging AI, literary studies, and social science research.
- Abstract(参考訳): 書籍は、しばしば文化的な洞察に富んでいるが、その時代の社会的バイアスを反映することができる。
微調整LDMを用いてこれらのバイアスを追跡・定量化するための新しい手法を提案する。
偏見の進化を追跡するため,1950-2019年の間に593冊の架空の書籍からなるコーパスであるBookPAGEを開発した。
LLMを10年ごとの書籍に微調整し、対象とするプロンプトを用いて、性別、性的指向、人種、宗教に関するバイアスの変化について検討する。
以上の結果から,10年ごとに学習したLCMは,段階的傾向と顕著な変化とともに,その時代を反映する偏見を示すことが示唆された。
例えば、モデル・レスポンスは、1950年代から2010年代にかけて、リーダーシップにおける女性の描写(8%から22%)が徐々に増加し、1990年代(4%から12%)の顕著な増加は、おそらく第三波フェミニズムと整合していることを示している。
1980年代から2000年代(0%から10%)にかけて、同性関係の言及は顕著に増加し、LGBTQ+の可視性の増加を反映した。
憂慮すべきことに、2000年代にはイスラム教の否定的な描写が急激に増加し(26%から38%)、おそらく9/11以降の感情を反映している。
重要なのは、これらのバイアスは、主に書籍の内容から生じており、モデルのアーキテクチャや初期トレーニングから来ていることを示しています。
我々の研究は、AI、文学研究、社会科学研究をブリッジすることで、社会的バイアスの傾向に関する新たな視点を提供する。
関連論文リスト
- Popular LLMs Amplify Race and Gender Disparities in Human Mobility [2.601262068492271]
本研究では,大規模言語モデル (LLM) が人種や性別に基づく人体移動の予測に偏りを示すかどうかを検討する。
LLMは、既存の社会的バイアスをよく反映し、増幅する。
論文 参考訳(メタデータ) (2024-11-18T19:41:20Z) - Evaluating Gender, Racial, and Age Biases in Large Language Models: A Comparative Analysis of Occupational and Crime Scenarios [0.0]
本稿では,Large Language Models(LLMs)におけるバイアスについて検討する。
LLMは、様々な職業において、男性よりも頻繁に女性キャラクターを描いていることが判明した。
性別と人種の偏見を減らそうとする努力は、しばしば1つのサブクラスを超越する結果をもたらす。
論文 参考訳(メタデータ) (2024-09-22T20:21:20Z) - Delving into ChatGPT usage in academic writing through excess vocabulary [4.58733012283457]
大きな言語モデル(LLM)は、人間レベルのパフォーマンスでテキストを生成し、修正することができる。
しかし、多くの科学者が学術的な執筆を支援するためにそれを使ってきた。
2010年から2024年までの1400万のPubMed抽象語の語彙変化について検討し、LLMの出現がある種の単語の出現頻度の急激な増加につながったことを示す。
論文 参考訳(メタデータ) (2024-06-11T07:16:34Z) - Whose Side Are You On? Investigating the Political Stance of Large Language Models [56.883423489203786]
大規模言語モデル(LLM)の政治的指向性について,8つのトピックのスペクトルにわたって検討する。
我々の調査は、中絶からLGBTQ問題まで8つのトピックにまたがるLLMの政治的整合性について考察している。
この結果から,ユーザはクエリ作成時に留意すべきであり,中立的なプロンプト言語を選択する際には注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2024-03-15T04:02:24Z) - Large Language Models are Geographically Biased [47.88767211956144]
我々は、地理のレンズを通して、我々の住む世界について、Large Language Models (LLM)が何を知っているかを研究する。
我々は,地理空間予測において,システム的誤りと定義する,様々な問題的地理的バイアスを示す。
論文 参考訳(メタデータ) (2024-02-05T02:32:09Z) - Bias Runs Deep: Implicit Reasoning Biases in Persona-Assigned LLMs [67.51906565969227]
LLMの基本的な推論タスクの実行能力に対するペルソナ代入の意図しない副作用について検討する。
本研究は,5つの社会デコグラフィーグループにまたがる24の推論データセット,4つのLDM,19の多様な個人(アジア人など)について検討した。
論文 参考訳(メタデータ) (2023-11-08T18:52:17Z) - "Kelly is a Warm Person, Joseph is a Role Model": Gender Biases in
LLM-Generated Reference Letters [97.11173801187816]
大規模言語モデル(LLM)は、個人が様々な種類のコンテンツを書くのを支援する効果的なツールとして最近登場した。
本稿では, LLM 生成した参照文字の性別バイアスについて批判的に検討する。
論文 参考訳(メタデータ) (2023-10-13T16:12:57Z) - Gender bias and stereotypes in Large Language Models [0.6882042556551611]
本稿では,ジェンダーステレオタイプに関する大規模言語モデルの振る舞いについて考察する。
我々は、WinoBiasとは違って、性別バイアスの存在をテストするための単純なパラダイムを用いています。
a) LLMは、人の性別とステレオタイプ的に一致した職業を選択する確率が3~6倍、(b) これらの選択は、公務員の統計に反映された基礎的真実よりも人々の知覚に適合し、(d) LLMは、我々の研究項目の95%の時間において重要な曖昧さを無視する。
論文 参考訳(メタデータ) (2023-08-28T22:32:05Z) - Forgotten Knowledge: Examining the Citational Amnesia in NLP [63.13508571014673]
論文を引用するのにどれくらいの時間がかかったのか、どのようにして変化したのか、そしてこの引用的注意/記憶に相関する要因は何か。
引用論文の約62%が出版直前の5年間のものであり,約17%が10年以上前のものであることを示す。
1990年から2014年にかけて、引用論文の中央値と年齢の多様性は着実に増加してきたが、その後傾向が逆転し、現在のNLP論文は、時間的引用の多様性が極端に低い。
論文 参考訳(メタデータ) (2023-05-29T18:30:34Z) - Gender bias in magazines oriented to men and women: a computational
approach [58.720142291102135]
女性指向の雑誌の内容と男性指向の雑誌の内容を比較する。
トピック・モデリングの手法により、雑誌で議論されている主要なテーマを特定し、これらのトピックの存在が時間とともに雑誌間でどの程度異なるかを定量化する。
以上の結果から,セクシュアオブジェクトとしての家族,ビジネス,女性の出現頻度は,時間とともに消失する傾向にあることが示唆された。
論文 参考訳(メタデータ) (2020-11-24T14:02:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。