論文の概要: Clustering Discourses: Racial Biases in Short Stories about Women Generated by Large Language Models
- arxiv url: http://arxiv.org/abs/2509.02834v1
- Date: Tue, 02 Sep 2025 21:01:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 21:40:46.342473
- Title: Clustering Discourses: Racial Biases in Short Stories about Women Generated by Large Language Models
- Title(参考訳): クラスタリング談話:大規模言語モデルで生成した女性についての短い物語におけるラシアル・ビアーズ
- Authors: Gustavo Bonil, João Gondim, Marina dos Santos, Simone Hashiguti, Helena Maia, Nadia Silva, Helio Pedrini, Sandra Avila,
- Abstract要約: 本研究では,ポルトガル語で作成された短編小説において,大規模言語モデル,特にLLaMA 3.2-3Bが黒人と白人女性についての物語をいかに構築するかを検討する。
2100のテキストから意味論的に類似したストーリーをグループ化する計算手法を適用し,質的分析のための選択を可能にした。
- 参考スコア(独自算出の注目度): 2.5052166082856497
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This study investigates how large language models, in particular LLaMA 3.2-3B, construct narratives about Black and white women in short stories generated in Portuguese. From 2100 texts, we applied computational methods to group semantically similar stories, allowing a selection for qualitative analysis. Three main discursive representations emerge: social overcoming, ancestral mythification and subjective self-realization. The analysis uncovers how grammatically coherent, seemingly neutral texts materialize a crystallized, colonially structured framing of the female body, reinforcing historical inequalities. The study proposes an integrated approach, that combines machine learning techniques with qualitative, manual discourse analysis.
- Abstract(参考訳): 本研究では,ポルトガル語で作成された短編小説において,大規模言語モデル,特にLLaMA 3.2-3Bが黒人と白人女性についての物語をいかに構築するかを検討する。
2100のテキストから意味論的に類似したストーリーをグループ化する計算手法を適用し,質的分析のための選択を可能にした。
社会の克服、祖先の神話化、主観的な自己実現の3つの主な分散表現が出現する。
この分析は、文法的に一貫性があり、一見中立的なテキストが、女性の身体の結晶化され、植民地的に構成されたフレーミングをいかに実現し、歴史的不平等を補強するかを明らかにする。
この研究は、機械学習技術と定性的手動談話分析を組み合わせた統合的なアプローチを提案する。
関連論文リスト
- Yet another algorithmic bias: A Discursive Analysis of Large Language Models Reinforcing Dominant Discourses on Gender and Race [4.10874761487336]
LLM(Large Language Models)は、様々な文脈において広く使われてきた言語モデルである。
より洗練されたバージョンへと進化するにつれて、差別や人種化といったバイアスを再現するかどうかを評価することが不可欠である。
本研究では,このような手法を補完する定性的・非帰的枠組みを提案する。
論文 参考訳(メタデータ) (2025-08-14T03:22:02Z) - Re:Verse -- Can Your VLM Read a Manga? [14.057881684215047]
現在の視覚言語モデル(VLM)は、表面レベルの認識と深い物語的推論の間に重要なギャップを示す。
本稿では,細粒度マルチモーダルアノテーション,クロスモーダル埋め込み解析,検索強化評価を組み合わせた新しい評価フレームワークを提案する。
本稿では,VLMにおける長期的物語理解に関する最初の体系的研究を,生成的ストーリーテリング,文脈的対話グラウンドニング,時間的推論という3つのコア評価軸を通じて行った。
論文 参考訳(メタデータ) (2025-08-11T22:40:05Z) - Are Large Language Models Capable of Generating Human-Level Narratives? [114.34140090869175]
本稿ではストーリーテリングにおけるLLMの能力について考察し,物語の展開とプロットの進行に着目した。
本稿では,3つの談話レベルの側面から物語を分析するための新しい計算フレームワークを提案する。
談話機能の明示的な統合は、ニューラルストーリーテリングの40%以上の改善によって示されるように、ストーリーテリングを促進することができることを示す。
論文 参考訳(メタデータ) (2024-07-18T08:02:49Z) - Inclusivity in Large Language Models: Personality Traits and Gender Bias in Scientific Abstracts [49.97673761305336]
我々は,3つの大きな言語モデル (LLM) を,人間の物語スタイルと潜在的な性別バイアスに適合させることで評価した。
以上の結果から,これらのモデルは一般的にヒトの投稿内容によく似たテキストを生成するが,スタイル的特徴の変化は有意な性差を示すことが示唆された。
論文 参考訳(メタデータ) (2024-06-27T19:26:11Z) - White Men Lead, Black Women Help? Benchmarking and Mitigating Language Agency Social Biases in LLMs [58.27353205269664]
社会的バイアスは、Large Language Model(LLM)生成コンテンツにおいて言語エージェンシーに現れる。
LLMのバイアスを包括的に評価するLanguage Agency Bias Evaluationベンチマークを導入する。
LABEを用いて,近年の3つのLLM(ChatGPT,Llama3,Mistral)における言語エージェントの社会的バイアスを明らかにした。
論文 参考訳(メタデータ) (2024-04-16T12:27:54Z) - Multilingual Contextual Affective Analysis of LGBT People Portrayals in
Wikipedia [34.183132688084534]
物語文における特定の語彙選択は、物語の中の人々に対する作家の態度を反映し、聴衆の反応に影響を与える。
言語や文化によって単語の意味がどう異なるかを示し、既存の英語データセットを一般化することの難しさを浮き彫りにしている。
次に、LGBTコミュニティのメンバーのウィキペディアの伝記ページを3つの言語で分析することで、本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-10-21T08:27:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。