論文の概要: Measuring Intersectional Biases in Historical Documents
- arxiv url: http://arxiv.org/abs/2305.12376v1
- Date: Sun, 21 May 2023 07:10:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-23 21:05:14.342808
- Title: Measuring Intersectional Biases in Historical Documents
- Title(参考訳): 歴史文書における交叉バイアスの測定
- Authors: Nadav Borenstein and Karolina Sta\'nczak and Thea Rolskov and
Nat\'alia da Silva Perez and Natacha Klein K\"afer and Isabelle Augenstein
- Abstract要約: 植民地時代(18世紀から19世紀)にカリブ海で発行された歴史新聞におけるバイアスの連続性と変化について検討する。
私たちの分析は、性別、人種、およびそれらの交点の軸に沿って行われます。
単語埋め込みの安定性と、過去のデータセットとの互換性の間にはトレードオフがあることが分かりました。
- 参考スコア(独自算出の注目度): 37.03904311548859
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Data-driven analyses of biases in historical texts can help illuminate the
origin and development of biases prevailing in modern society.
However, digitised historical documents pose a challenge for NLP
practitioners as these corpora suffer from errors introduced by optical
character recognition (OCR) and are written in an archaic language. In this
paper, we investigate the continuities and transformations of bias in
historical newspapers published in the Caribbean during the colonial era (18th
to 19th centuries). Our analyses are performed along the axes of gender, race,
and their intersection. We examine these biases by conducting a temporal study
in which we measure the development of lexical associations using
distributional semantics models and word embeddings. Further, we evaluate the
effectiveness of techniques designed to process OCR-generated data and assess
their stability when trained on and applied to the noisy historical newspapers.
We find that there is a trade-off between the stability of the word embeddings
and their compatibility with the historical dataset. We provide evidence that
gender and racial biases are interdependent, and their intersection triggers
distinct effects. These findings align with the theory of intersectionality,
which stresses that biases affecting people with multiple marginalised
identities compound to more than the sum of their constituents.
- Abstract(参考訳): 歴史テキストにおけるバイアスのデータ駆動分析は、現代社会で普及するバイアスの起源と発展を照らすのに役立つ。
しかし、デジタル化された歴史文書は、これらのコーパスが光学文字認識(OCR)によって引き起こされた誤りに悩まされ、古来の言語で書かれたため、NLP実践者には困難である。
本稿では,植民地時代(18世紀から19世紀)にカリブ海で発行された歴史新聞におけるバイアスの連続性と変化について検討する。
私たちの分析は、性別、人種、およびそれらの交差点の軸に沿って行われます。
これらのバイアスを,分布意味論モデルと単語埋め込みを用いて語彙関係の発達を計測する時間的研究によって検討する。
さらに,OCR生成データを処理するために設計した手法の有効性を評価し,学習時の安定性を評価し,ノイズのある歴史新聞に応用する。
単語埋め込みの安定性と、過去のデータセットとの互換性の間にはトレードオフがある。
我々は、性別と人種の偏見が相互依存していることの証拠を提供し、その交差が異なる影響を引き起こす。
これらの知見は、複数の辺縁的アイデンティティを持つ人々に影響を与えるバイアスが、その構成員の合計以上のものであることを強調する交叉性の理論と一致している。
関連論文リスト
- Contrastive Entity Coreference and Disambiguation for Historical Texts [2.446672595462589]
既存のエンティティの曖昧さの方法はしばしば、現代の知識ベースに記憶されていない個人を悩ませる歴史文書の正確さに欠ける。
本研究は,文献の文書間照合の解決と曖昧さの解消に3つの重要な貢献をしている。
論文 参考訳(メタデータ) (2024-06-21T18:22:14Z) - COBIAS: Contextual Reliability in Bias Assessment [14.594920595573038]
大規模な言語モデル(LLM)は、広範囲なウェブコーパスで訓練されており、人間のようなテキストを理解して生成することができる。
これらのバイアスは、様々なステレオタイプや偏見を含む、Webデータの多様性と、しばしば未修正の性質から生じる。
本稿では,それらが生じる可能性のある多様な状況を考慮して,入力の文脈を理解することを提案する。
論文 参考訳(メタデータ) (2024-02-22T10:46:11Z) - Exploring the Jungle of Bias: Political Bias Attribution in Language Models via Dependency Analysis [86.49858739347412]
大規模言語モデル(LLM)は、これらのモデルにおけるバイアスの頻度とその緩和に関する激しい議論を引き起こしている。
本稿では,意思決定プロセスに寄与する属性の抽出と仲介を行うためのプロンプトベースの手法を提案する。
観察された異なる治療は、少なくとも部分的には、属性の相違とモデルの相違によるものであることが判明した。
論文 参考訳(メタデータ) (2023-11-15T00:02:25Z) - Towards Debiasing Frame Length Bias in Text-Video Retrieval via Causal
Intervention [72.12974259966592]
トリミングビデオクリップのトレーニングセットとテストセットのフレーム長差による時間偏差について,一意かつ体系的に検討した。
Epic-Kitchens-100, YouCook2, MSR-VTTデータセットについて, 因果脱バイアス法を提案し, 広範な実験およびアブレーション研究を行った。
論文 参考訳(メタデータ) (2023-09-17T15:58:27Z) - Bias and Fairness in Large Language Models: A Survey [73.87651986156006]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Robust Quantification of Gender Disparity in Pre-Modern English
Literature using Natural Language Processing [8.185725740857594]
前近代文学における女性キャラクタと男性キャラクタの有病率の相違を示す。
この不一致は、この世紀から長い期間にデータをプロットするにつれて、比較的安定しているように思われる。
我々は,本研究に関連する限界と倫理的注意点の両方を慎重に記述することを目的とする。
論文 参考訳(メタデータ) (2022-04-12T15:11:22Z) - Balancing out Bias: Achieving Fairness Through Training Reweighting [58.201275105195485]
自然言語処理におけるバイアスは、性別や人種などの著者の特徴を学習するモデルから生じる。
既存のバイアスの緩和と測定方法は、著者の人口統計学と言語変数の相関を直接考慮していない。
本稿では,インスタンス再重み付けを用いたバイアス対策法を提案する。
論文 参考訳(メタデータ) (2021-09-16T23:40:28Z) - Diachronic Analysis of German Parliamentary Proceedings: Ideological
Shifts through the Lens of Political Biases [18.38810381745439]
我々は、歴史的コーパスにおける偏見を、政治(反共産主義)と人種差別(反ユダヤ主義)の2種類の偏見に焦点をあてて分析する。
ダイアクロニック単語埋め込みにおける歴史的バイアスのこの分析を,用語共起とグラフに基づくラベル伝搬に基づく新しいバイアス尺度で補完する。
バイアス測定の結果は、異なる時代のドイツの政治における反ユダヤ主義的・反共主義的バイアスの一般的な歴史的傾向と一致した。
論文 参考訳(メタデータ) (2021-08-13T15:58:07Z) - Detecting Emergent Intersectional Biases: Contextualized Word Embeddings
Contain a Distribution of Human-like Biases [10.713568409205077]
最先端のニューラルネットワークモデルは、単語が現れるコンテキストに依存する動的単語埋め込みを生成する。
本稿では、ニューラルネットワークモデルにおける全体的なバイアスの大きさを要約できる、コンテキスト適応型埋め込みアソシエーションテスト(CEAT)を紹介する。
静的な単語埋め込みから交差点バイアスと緊急交差点バイアスを自動的に識別する2つの方法,IBD (Intersectional Bias Detection) とEmergent Intersectional Bias Detection (EIBD) を開発した。
論文 参考訳(メタデータ) (2020-06-06T19:49:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。