論文の概要: Analyzing values about gendered language reform in LLMs' revisions
- arxiv url: http://arxiv.org/abs/2505.21378v1
- Date: Tue, 27 May 2025 16:07:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-28 17:05:58.786492
- Title: Analyzing values about gendered language reform in LLMs' revisions
- Title(参考訳): LLMの改訂版におけるジェンダー付き言語改革の価値観の分析
- Authors: Jules Watson, Xi Wang, Raymond Liu, Suzanne Stevenson, Barend Beekhuizen,
- Abstract要約: LLMの性別付き役割名詞の改訂とその修正の正当性について検討する。
フェミニストやトランス包括的言語改革との整合性を評価する。
価値アライメントの意義について論じる。
- 参考スコア(独自算出の注目度): 7.503955048289612
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Within the common LLM use case of text revision, we study LLMs' revision of gendered role nouns (e.g., outdoorsperson/woman/man) and their justifications of such revisions. We evaluate their alignment with feminist and trans-inclusive language reforms for English. Drawing on insight from sociolinguistics, we further assess if LLMs are sensitive to the same contextual effects in the application of such reforms as people are, finding broad evidence of such effects. We discuss implications for value alignment.
- Abstract(参考訳): テキストリビジョンにおける LLM の一般的なユースケースとして, ジェンダー付きロール名詞(例えば, アウトドアパーソン/ウーマン/マン)の改訂とその正当性について検討した。
フェミニストやトランス包括的言語改革との整合性を評価する。
社会言語学の知見に基づいて,LLMが人間と同じ文脈的効果に敏感であるかどうかを更に評価し,そのような効果の広範な証拠を見出した。
価値アライメントの意義について論じる。
関連論文リスト
- A database to support the evaluation of gender biases in GPT-4o output [4.517392236571035]
大規模言語モデル(LLM)の顕著な倫理的リスクは、不公平な言語出力の生成である。
本稿では,ジェンダー関連バイアスを評価するためのデータベース構築手法を提案する。
論文 参考訳(メタデータ) (2025-02-28T09:54:13Z) - Adapting Psycholinguistic Research for LLMs: Gender-inclusive Language in a Coreference Context [0.9831489366502298]
本研究では,大言語モデルがジェンダー非包摂的言語を中立的に解釈するか否かを検討する。
英語では、LLMは一般的に前任者の性別を維持できるが、基礎となる男性偏見を示す。
ドイツ語では、このバイアスはより強く、テストされたすべての性別中立化戦略をオーバーライドする。
論文 参考訳(メタデータ) (2025-02-18T18:42:11Z) - Large Language Models Reflect the Ideology of their Creators [71.65505524599888]
大規模言語モデル(LLM)は、自然言語を生成するために大量のデータに基づいて訓練される。
本稿では, LLMのイデオロギー的姿勢が創造者の世界観を反映していることを示す。
論文 参考訳(メタデータ) (2024-10-24T04:02:30Z) - The Lou Dataset -- Exploring the Impact of Gender-Fair Language in German Text Classification [57.06913662622832]
ジェンダーフェア言語は、すべての性別に対処したり、中立形を使用することによって包摂性を促進する。
ジェンダーフェア言語はラベルを反転させ、確実性を減らし、注意パターンを変化させることで予測に大きな影響を及ぼす。
ドイツ語のテキスト分類への影響について最初の知見を提供する一方で、他の言語にもその知見が当てはまる可能性が高い。
論文 参考訳(メタデータ) (2024-09-26T15:08:17Z) - Do language models practice what they preach? Examining language ideologies about gendered language reform encoded in LLMs [6.06227550292852]
我々は、英語のジェンダー化言語改革を事例として、LLMが作成したテキストにおける言語イデオロギーについて研究する。
LLMは「正しい」あるいは「自然な」言語を使うよう求められた時、保守的な(進歩的な)価値観に合わせるよう求められた時と、最もよく似た言語を使用する。
このことは、LLMが生成したテキストで表現される言語イデオロギーがいかに異なるかを示しており、これはユーザにとって予期せぬことである。
論文 参考訳(メタデータ) (2024-09-20T18:55:48Z) - GenderCARE: A Comprehensive Framework for Assessing and Reducing Gender Bias in Large Language Models [73.23743278545321]
大規模言語モデル(LLM)は、自然言語生成において顕著な能力を示してきたが、社会的バイアスを増大させることも観察されている。
GenderCAREは、革新的な基準、バイアス評価、リダクションテクニック、評価メトリクスを含む包括的なフレームワークである。
論文 参考訳(メタデータ) (2024-08-22T15:35:46Z) - Semantic Change Characterization with LLMs using Rhetorics [0.1474723404975345]
本研究では,LLMが3種類の意味変化(思考,関係,方向)を特徴づける可能性について検討する。
本結果は,意味的変化の捕捉と解析におけるLLMの有効性を強調し,計算言語応用を改善する上で有用な洞察を提供するものである。
論文 参考訳(メタデータ) (2024-07-23T16:32:49Z) - Exploring the Jungle of Bias: Political Bias Attribution in Language Models via Dependency Analysis [86.49858739347412]
大規模言語モデル(LLM)は、これらのモデルにおけるバイアスの頻度とその緩和に関する激しい議論を引き起こしている。
本稿では,意思決定プロセスに寄与する属性の抽出と仲介を行うためのプロンプトベースの手法を提案する。
観察された異なる治療は、少なくとも部分的には、属性の相違とモデルの相違によるものであることが判明した。
論文 参考訳(メタデータ) (2023-11-15T00:02:25Z) - "Kelly is a Warm Person, Joseph is a Role Model": Gender Biases in
LLM-Generated Reference Letters [97.11173801187816]
大規模言語モデル(LLM)は、個人が様々な種類のコンテンツを書くのを支援する効果的なツールとして最近登場した。
本稿では, LLM 生成した参照文字の性別バイアスについて批判的に検討する。
論文 参考訳(メタデータ) (2023-10-13T16:12:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。