論文の概要: Unraveling Downstream Gender Bias from Large Language Models: A Study on
AI Educational Writing Assistance
- arxiv url: http://arxiv.org/abs/2311.03311v1
- Date: Mon, 6 Nov 2023 18:01:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-07 13:22:54.510706
- Title: Unraveling Downstream Gender Bias from Large Language Models: A Study on
AI Educational Writing Assistance
- Title(参考訳): 大規模言語モデルから下流ジェンダーバイアスを解き放つ:AI教育書記支援システムに関する研究
- Authors: Thiemo Wambsganss, Xiaotian Su, Vinitra Swamy, Seyed Parsa Neshaei,
Roman Rietsche, Tanja K\"aser
- Abstract要約: 大規模言語モデル (LLMs) は、学生に文章の提示などの教育的タスクにますます活用されている。
これまでの研究は、モデルとデータ表現のバイアスを別々に研究してきた。
本稿では,AI記述支援パイプラインによるバイアス伝達について検討する。
- 参考スコア(独自算出の注目度): 13.276943737418417
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) are increasingly utilized in educational tasks
such as providing writing suggestions to students. Despite their potential,
LLMs are known to harbor inherent biases which may negatively impact learners.
Previous studies have investigated bias in models and data representations
separately, neglecting the potential impact of LLM bias on human writing. In
this paper, we investigate how bias transfers through an AI writing support
pipeline. We conduct a large-scale user study with 231 students writing
business case peer reviews in German. Students are divided into five groups
with different levels of writing support: one classroom group with
feature-based suggestions and four groups recruited from Prolific -- a control
group with no assistance, two groups with suggestions from fine-tuned GPT-2 and
GPT-3 models, and one group with suggestions from pre-trained GPT-3.5. Using
GenBit gender bias analysis, Word Embedding Association Tests (WEAT), and
Sentence Embedding Association Test (SEAT) we evaluate the gender bias at
various stages of the pipeline: in model embeddings, in suggestions generated
by the models, and in reviews written by students. Our results demonstrate that
there is no significant difference in gender bias between the resulting peer
reviews of groups with and without LLM suggestions. Our research is therefore
optimistic about the use of AI writing support in the classroom, showcasing a
context where bias in LLMs does not transfer to students' responses.
- Abstract(参考訳): 大規模言語モデル (LLMs) は、学生に文章の提示などの教育的タスクにますます活用されている。
LLMは、その可能性にもかかわらず、学習者に悪影響を及ぼす可能性のある固有のバイアスを持つことが知られている。
従来の研究では、モデルとデータ表現のバイアスを別々に研究しており、LLMバイアスが人間の文章に及ぼす影響を無視している。
本稿では,AI記述支援パイプラインによるバイアス伝達について検討する。
我々は,231名の学生がドイツ語でビジネスケースピアレビューを書いている大規模ユーザ調査を行う。
学生は、特徴に基づく提案を持つ教室グループと、Prolificから採用した4つのグループ – 支援なしのコントロールグループ、微調整GPT-2モデルとGPT-3モデルからの提案を持つ2つのグループ、事前訓練GPT-3.5モデルからの提案を含む1つのグループに分けられる。
GenBitのジェンダーバイアス分析、Word Embedding Association Tests(WEAT)、Sentence Embedding Association Test(SEAT)を用いて、モデルの埋め込み、モデルによる提案、学生によるレビューなど、パイプラインの様々な段階におけるジェンダーバイアスを評価する。
その結果,llm提案の有無に関わらず,結果のピアレビュー間で性バイアスに有意な差は認められなかった。
それゆえ,本研究は教室におけるaiライティングサポートの利用に楽観的であり,llmのバイアスが学生の反応に伝達しない状況を示す。
関連論文リスト
- GPTBIAS: A Comprehensive Framework for Evaluating Bias in Large Language
Models [83.30078426829627]
大規模言語モデル(LLM)は人気を集め、大規模なユーザコミュニティで広く採用されている。
既存の評価手法には多くの制約があり、それらの結果は限定的な解釈可能性を示している。
本稿では,LPMの高性能性を活用し,モデル内のバイアスを評価するGPTBIASというバイアス評価フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-11T12:02:14Z) - What Do Llamas Really Think? Revealing Preference Biases in Language
Model Representations [62.91799637259657]
大規模言語モデル(LLMs)は、応答を辞退しても、社会的な偏見を示すか?
本研究は,文脈的埋め込みを探索し,このバイアスが潜在表現にエンコードされているかどうかを探索することによって検討する。
単語の隠れベクトルからLLMの単語ペア選好を予測するロジスティックなBradley-Terryプローブを提案する。
論文 参考訳(メタデータ) (2023-11-30T18:53:13Z) - Aligning with Whom? Large Language Models Have Gender and Racial Biases
in Subjective NLP Tasks [15.015148115215315]
我々は4つのポピュラーな大言語モデル(LLM)の実験を行い、集団差と潜在的なバイアスを理解する能力について、丁寧さと不快さの予測について検討する。
どちらのタスクでも、モデル予測は白人と女性の参加者のラベルに近いことが分かりました。
より具体的には、"ブラック"と"アジア"個人の観点から反応するよう促された場合、モデルは、対応するグループからのスコアだけでなく、全体的なスコアを予測する際のパフォーマンスを低下させる。
論文 参考訳(メタデータ) (2023-11-16T10:02:24Z) - Generative Language Models Exhibit Social Identity Biases [18.175179449419787]
我々は,51大言語モデルにおいて,社会科学の基本的な社会的バイアスである,集団内連帯性と集団外連帯性について検討する。
ほぼすべての基礎言語モデルといくつかの命令微調整モデルは、文の完全化を促すと、グループ内陽性およびグループ外陰性バイアスが明らかになる。
論文 参考訳(メタデータ) (2023-10-24T13:17:40Z) - "Kelly is a Warm Person, Joseph is a Role Model": Gender Biases in
LLM-Generated Reference Letters [97.11173801187816]
大規模言語モデル(LLM)は、個人が様々な種類のコンテンツを書くのを支援する効果的なツールとして最近登場した。
本稿では, LLM 生成した参照文字の性別バイアスについて批判的に検討する。
論文 参考訳(メタデータ) (2023-10-13T16:12:57Z) - Investigating Subtler Biases in LLMs: Ageism, Beauty, Institutional, and
Nationality Bias in Generative Models [0.0]
本稿では, 年齢や美しさなど, 研究の少ない, 連続的な, 次元に沿ったバイアスについて検討する。
実験心理学において, LLMは, 特定の社会集団に対して, 肯定的あるいは否定的な感情の偏見を広く保持するか否かを問う。
論文 参考訳(メタデータ) (2023-09-16T07:07:04Z) - Unveiling Gender Bias in Terms of Profession Across LLMs: Analyzing and
Addressing Sociological Implications [0.0]
この研究は、AI言語モデルにおけるジェンダーバイアスに関する既存の研究を調査し、現在の知識のギャップを特定する。
この結果は,大規模言語モデルのアウトプットに存在する,ジェンダー付き単語関連,言語使用,偏見付き物語に光を当てた。
本稿では,アルゴリズムアプローチやデータ拡張手法など,LSMにおける性別バイアスを低減するための戦略を提案する。
論文 参考訳(メタデータ) (2023-07-18T11:38:45Z) - Investigating Fairness Disparities in Peer Review: A Language Model
Enhanced Approach [77.61131357420201]
我々は、大規模言語モデル(LM)の助けを借りて、ピアレビューにおける公平性格差の徹底した厳密な研究を行う。
我々は、2017年から現在までのICLR(International Conference on Learning Representations)カンファレンスで、包括的なリレーショナルデータベースを収集、組み立て、維持しています。
我々は、著作者性別、地理、著作者、機関的名声など、興味のある複数の保護属性に対する公平性の違いを仮定し、研究する。
論文 参考訳(メタデータ) (2022-11-07T16:19:42Z) - Bias at a Second Glance: A Deep Dive into Bias for German Educational
Peer-Review Data Modeling [10.080007569933331]
我々は5年間で9,165人のドイツのピアレビューのコーパスで、テキストと複数のアーキテクチャ間のバイアスを分析します。
収集したコーパスは, 共起解析やGloVe埋め込みにおいて多くのバイアスを示さない。
事前訓練されたドイツの言語モデルは、実質的な概念的、人種的、性別的偏見を見出す。
論文 参考訳(メタデータ) (2022-09-21T13:08:16Z) - Towards Understanding Gender-Seniority Compound Bias in Natural Language
Generation [64.65911758042914]
本研究では,事前学習したニューラルジェネレーションモデルにおける性別バイアスの程度に,高齢者がどのような影響を及ぼすかを検討する。
以上の結果から, GPT-2は, 両領域において, 女性を中年, 男性を中年として考えることにより, 偏見を増幅することが示された。
以上の結果から, GPT-2を用いて構築したNLPアプリケーションは, プロの能力において女性に害を与える可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-19T20:05:02Z) - Towards Controllable Biases in Language Generation [87.89632038677912]
本研究では、特定の人口集団の言及を含む入力プロンプトによって生成されたテキストの社会的バイアスを誘導する手法を開発した。
1 つの人口統計学において負のバイアスを誘発し、もう1 つの人口統計学において正のバイアスを誘導し、2 つのシナリオを分析する。
論文 参考訳(メタデータ) (2020-05-01T08:25:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。