論文の概要: Robust Quantification of Gender Disparity in Pre-Modern English
Literature using Natural Language Processing
- arxiv url: http://arxiv.org/abs/2204.05872v1
- Date: Tue, 12 Apr 2022 15:11:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 16:15:20.193949
- Title: Robust Quantification of Gender Disparity in Pre-Modern English
Literature using Natural Language Processing
- Title(参考訳): 自然言語処理を用いた近代英語文学における性差のロバスト定量化
- Authors: Akarsh Nagaraj and Mayank Kejriwal
- Abstract要約: 前近代文学における女性キャラクタと男性キャラクタの有病率の相違を示す。
この不一致は、この世紀から長い期間にデータをプロットするにつれて、比較的安定しているように思われる。
我々は,本研究に関連する限界と倫理的注意点の両方を慎重に記述することを目的とする。
- 参考スコア(独自算出の注目度): 8.185725740857594
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Research has continued to shed light on the extent and significance of gender
disparity in social, cultural and economic spheres. More recently,
computational tools from the Natural Language Processing (NLP) literature have
been proposed for measuring such disparity using relatively extensive datasets
and empirically rigorous methodologies. In this paper, we contribute to this
line of research by studying gender disparity, at scale, in copyright-expired
literary texts published in the pre-modern period (defined in this work as the
period ranging from the mid-nineteenth through the mid-twentieth century). One
of the challenges in using such tools is to ensure quality control, and by
extension, trustworthy statistical analysis. Another challenge is in using
materials and methods that are publicly available and have been established for
some time, both to ensure that they can be used and vetted in the future, and
also, to add confidence to the methodology itself. We present our solution to
addressing these challenges, and using multiple measures, demonstrate the
significant discrepancy between the prevalence of female characters and male
characters in pre-modern literature. The evidence suggests that the discrepancy
declines when the author is female. The discrepancy seems to be relatively
stable as we plot data over the decades in this century-long period. Finally,
we aim to carefully describe both the limitations and ethical caveats
associated with this study, and others like it.
- Abstract(参考訳): 社会、文化、経済分野における男女格差の程度と重要性について研究が続けられている。
近年,自然言語処理(nlp)文献の計算ツールが,比較的広範なデータセットと経験的厳密な方法論を用いて,それらの不一致を測定するために提案されている。
本稿は, 近世の出版物における男女格差を大規模に研究し, 本研究に寄与するものである(本書では19世紀中頃から20世紀中頃までと定義されている)。
このようなツールを使用する際の課題の1つは、品質管理と拡張によって信頼できる統計分析を保証することである。
もう1つの課題は、広く利用可能で、しばらくの間確立された材料や方法を使用することであり、将来、使用や審査ができるようにし、また方法論自体に自信を加えることである。
本稿では,これらの課題に対処し,複数の尺度を用いて,前近代文学における女性キャラクターと男性キャラクターの有意な差を示す。
この証拠は、著者が女性であるときに相違が減少することを示している。
この不一致は、この世紀から長い期間にデータをプロットするにつれて比較的安定しているように見える。
最後に、本研究に関連する限界と倫理的注意点の両方を慎重に記述することを目的とする。
関連論文リスト
- Divided by discipline? A systematic literature review on the quantification of online sexism and misogyny using a semi-automated approach [1.1599570446840546]
PRISMAフローチャートにおける選択段階の異なる段階における検索結果の絞り込みを半自動で行う方法を提案する。
2012年から2022年まで,コンピュータ科学と社会科学の文献を調査した。
オンライン性差別と誤認を測定するための今後の研究の課題と機会について論じる。
論文 参考訳(メタデータ) (2024-09-30T11:34:39Z) - GenderCARE: A Comprehensive Framework for Assessing and Reducing Gender Bias in Large Language Models [73.23743278545321]
大規模言語モデル(LLM)は、自然言語生成において顕著な能力を示してきたが、社会的バイアスを増大させることも観察されている。
GenderCAREは、革新的な基準、バイアス評価、リダクションテクニック、評価メトリクスを含む包括的なフレームワークである。
論文 参考訳(メタデータ) (2024-08-22T15:35:46Z) - Inclusivity in Large Language Models: Personality Traits and Gender Bias in Scientific Abstracts [49.97673761305336]
我々は,3つの大きな言語モデル (LLM) を,人間の物語スタイルと潜在的な性別バイアスに適合させることで評価した。
以上の結果から,これらのモデルは一般的にヒトの投稿内容によく似たテキストを生成するが,スタイル的特徴の変化は有意な性差を示すことが示唆された。
論文 参考訳(メタデータ) (2024-06-27T19:26:11Z) - Leveraging Large Language Models to Measure Gender Bias in Gendered Languages [9.959039325564744]
本稿では,スペイン語コーパスにおけるジェンダー表現を定量的に分析するために,大規模言語モデル(LLM)の文脈理解機能を活用する新しい手法を提案する。
その結果,男女比が4:01の有意差があることが判明した。
論文 参考訳(メタデータ) (2024-06-19T16:30:58Z) - Evaluation of Faithfulness Using the Longest Supported Subsequence [52.27522262537075]
本稿では,文脈によって支持される請求項の最長不連続性を計算し,機械生成テキストの忠実さを評価する新しい手法を提案する。
新しい人間アノテーション付きデータセットを使用して、モデルを微調整してLongest Supported Subsequence(LSS)を生成する。
提案手法は,我々のデータセットの忠実度に対する最先端のメトリクスよりも18%向上していることを示す。
論文 参考訳(メタデータ) (2023-08-23T14:18:44Z) - Unveiling Gender Bias in Terms of Profession Across LLMs: Analyzing and
Addressing Sociological Implications [0.0]
この研究は、AI言語モデルにおけるジェンダーバイアスに関する既存の研究を調査し、現在の知識のギャップを特定する。
この結果は,大規模言語モデルのアウトプットに存在する,ジェンダー付き単語関連,言語使用,偏見付き物語に光を当てた。
本稿では,アルゴリズムアプローチやデータ拡張手法など,LSMにおける性別バイアスを低減するための戦略を提案する。
論文 参考訳(メタデータ) (2023-07-18T11:38:45Z) - Measuring Intersectional Biases in Historical Documents [37.03904311548859]
植民地時代(18世紀から19世紀)にカリブ海で発行された歴史新聞におけるバイアスの連続性と変化について検討する。
私たちの分析は、性別、人種、およびそれらの交点の軸に沿って行われます。
単語埋め込みの安定性と、過去のデータセットとの互換性の間にはトレードオフがあることが分かりました。
論文 参考訳(メタデータ) (2023-05-21T07:10:31Z) - Auditing Gender Presentation Differences in Text-to-Image Models [54.16959473093973]
我々は、テキスト・ツー・イメージ・モデルにおいて、ジェンダーがどのように異なる形で提示されるかを研究する。
入力テキスト中の性指標を探索することにより、プレゼンテーション中心属性の周波数差を定量化する。
このような違いを推定する自動手法を提案する。
論文 参考訳(メタデータ) (2023-02-07T18:52:22Z) - Towards Understanding Gender-Seniority Compound Bias in Natural Language
Generation [64.65911758042914]
本研究では,事前学習したニューラルジェネレーションモデルにおける性別バイアスの程度に,高齢者がどのような影響を及ぼすかを検討する。
以上の結果から, GPT-2は, 両領域において, 女性を中年, 男性を中年として考えることにより, 偏見を増幅することが示された。
以上の結果から, GPT-2を用いて構築したNLPアプリケーションは, プロの能力において女性に害を与える可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-19T20:05:02Z) - Evaluating Gender Bias in Natural Language Inference [5.034017602990175]
推論による自然言語理解における性別バイアスの評価手法を提案する。
チャレンジタスクを使用して、職業を用いたジェンダーステレオタイプの存在に関する最先端のNLIモデルを調査します。
その結果,mnliとsnliデータセットでトレーニングされた3モデルでは,性別による予測誤差が有意に高いことが示唆された。
論文 参考訳(メタデータ) (2021-05-12T09:41:51Z) - Gender bias in magazines oriented to men and women: a computational
approach [58.720142291102135]
女性指向の雑誌の内容と男性指向の雑誌の内容を比較する。
トピック・モデリングの手法により、雑誌で議論されている主要なテーマを特定し、これらのトピックの存在が時間とともに雑誌間でどの程度異なるかを定量化する。
以上の結果から,セクシュアオブジェクトとしての家族,ビジネス,女性の出現頻度は,時間とともに消失する傾向にあることが示唆された。
論文 参考訳(メタデータ) (2020-11-24T14:02:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。