論文の概要: Gender and Racial Stereotype Detection in Legal Opinion Word Embeddings
- arxiv url: http://arxiv.org/abs/2203.13369v1
- Date: Thu, 24 Mar 2022 22:30:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-28 12:20:42.647930
- Title: Gender and Racial Stereotype Detection in Legal Opinion Word Embeddings
- Title(参考訳): 法的意見の単語埋め込みにおける性別と人種的ステレオタイプの検出
- Authors: Sean Matthews, John Hudzina, Dawn Sepehr
- Abstract要約: 本稿では、米国事例法に基づく司法意見に基づいて訓練された単語埋め込みにおける性別と人種的ステレオタイプを特定するためのアプローチを提案する。
まず、これらのバイアスを識別する手法が、法的意見文で訓練された単語埋め込みの使用に適していないかを説明する。
次に、法域内の性別と人種の偏見を識別する領域適応手法を提案する。
- 参考スコア(独自算出の注目度): 0.07366405857677226
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Studies have shown that some Natural Language Processing (NLP) systems encode
and replicate harmful biases with potential adverse ethical effects in our
society. In this article, we propose an approach for identifying gender and
racial stereotypes in word embeddings trained on judicial opinions from U.S.
case law. Embeddings containing stereotype information may cause harm when used
by downstream systems for classification, information extraction, question
answering, or other machine learning systems used to build legal research
tools. We first explain how previously proposed methods for identifying these
biases are not well suited for use with word embeddings trained on legal
opinion text. We then propose a domain adapted method for identifying gender
and racial biases in the legal domain. Our analyses using these methods suggest
that racial and gender biases are encoded into word embeddings trained on legal
opinions. These biases are not mitigated by exclusion of historical data, and
appear across multiple large topical areas of the law. Implications for
downstream systems that use legal opinion word embeddings and suggestions for
potential mitigation strategies based on our observations are also discussed.
- Abstract(参考訳): いくつかの自然言語処理(nlp)システムは有害なバイアスを符号化し複製し、社会に有害な倫理的影響をもたらす可能性がある。
本稿では、米国事例法における司法的意見に基づいて訓練された単語埋め込みにおける性別と人種的ステレオタイプを特定するためのアプローチを提案する。
ステレオタイプ情報を含む埋め込みは、分類、情報抽出、質問応答、あるいは法的な研究ツールを構築するために使用される他の機械学習システムのために下流システムで使用される場合、害を引き起こす可能性がある。
まず,これらのバイアスを識別するための従来の手法が,法的意見テキストで訓練された単語埋め込みに不適当であることを示す。
次に、法域内の性別と人種の偏見を識別する領域適応手法を提案する。
これらの手法を用いて分析したところ、人種的偏見は法的意見に基づいて訓練された単語埋め込みに符号化されていることが示唆された。
これらのバイアスは、歴史的データの排除によって緩和されず、法律の複数の大きな分野にまたがって現れる。
法的な意見の単語埋め込みを用いた下流システムや,観察に基づく潜在的な緩和戦略の提案についても考察した。
関連論文リスト
- The Root Shapes the Fruit: On the Persistence of Gender-Exclusive Harms in Aligned Language Models [58.130894823145205]
我々はトランスジェンダー、ノンバイナリ、その他のジェンダー・ディバースのアイデンティティを中心とし、アライメント手順が既存のジェンダー・ディバースバイアスとどのように相互作用するかを検討する。
以上の結果から,DPO対応モデルは特に教師付き微調整に敏感であることが示唆された。
DPOとより広範なアライメントプラクティスに合わせたレコメンデーションで締めくくります。
論文 参考訳(メタデータ) (2024-11-06T06:50:50Z) - Questioning Biases in Case Judgment Summaries: Legal Datasets or Large
Language Models? [0.0]
本研究は,法的なデータセットと大規模言語モデルによる判断要約におけるバイアスについて検討する。
本研究は, これらの要約における偏見の正確性, 公平性, 含意を問うことによって, 法的文脈における技術の役割のより深い理解に寄与する。
論文 参考訳(メタデータ) (2023-12-01T13:00:45Z) - Gender Bias in Text: Labeled Datasets and Lexicons [0.30458514384586394]
性別バイアスの自動検出には、性別バイアスデータセットと語彙の欠如がある。
関連文の収集,注釈付け,拡張によりラベル付きデータセットと網羅的辞書を提供する。
リリースされたデータセットとレキシコンは、Generic He、Generic She、Explicit Marking of Sex、Gendered Neologismsなど、複数のバイアスサブタイプにまたがっている。
論文 参考訳(メタデータ) (2022-01-21T12:44:51Z) - Anatomizing Bias in Facial Analysis [86.79402670904338]
既存の顔分析システムでは、特定の集団群に対して偏りのある結果が得られることが示されている。
これらのシステムは、個人の性別、アイデンティティ、肌のトーンに基づいて差別されないようにすることが義務づけられている。
これはAIシステムにおけるバイアスの識別と緩和の研究につながった。
論文 参考訳(メタデータ) (2021-12-13T09:51:13Z) - Sexism in the Judiciary [0.0]
我々は670万件の訴訟法文書を分析し、司法制度における性別バイアスの存在を判断する。
NLPにおける現在のバイアス検出法は、我々の事例法データベースにおける性別バイアスを決定するのに不十分であることがわかった。
論文 参考訳(メタデータ) (2021-06-29T05:38:53Z) - Towards Understanding and Mitigating Social Biases in Language Models [107.82654101403264]
大規模事前訓練言語モデル(LM)は、望ましくない表現バイアスを示すのに潜在的に危険である。
テキスト生成における社会的バイアスを軽減するためのステップを提案する。
我々の経験的結果と人的評価は、重要な文脈情報を保持しながらバイアスを緩和する効果を示す。
論文 参考訳(メタデータ) (2021-06-24T17:52:43Z) - Gender Stereotype Reinforcement: Measuring the Gender Bias Conveyed by
Ranking Algorithms [68.85295025020942]
本稿では,性別ステレオタイプをサポートする検索エンジンの傾向を定量化するジェンダーステレオタイプ強化(GSR)尺度を提案する。
GSRは、表現上の害を定量化できる情報検索のための、最初の特別に調整された尺度である。
論文 参考訳(メタデータ) (2020-09-02T20:45:04Z) - Discovering and Categorising Language Biases in Reddit [5.670038395203354]
本稿では,Reddit上のオンライン談話コミュニティの語彙に符号化された言語バイアスを自動的に検出するデータ駆動型手法を提案する。
単語埋め込みを用いて、テキストを高次元の高密度ベクトルに変換し、単語間の意味的関係をキャプチャする。
さまざまなRedditコミュニティにおいて、ジェンダーバイアス、宗教バイアス、民族バイアスの発見に成功しました。
論文 参考訳(メタデータ) (2020-08-06T16:42:10Z) - Towards Debiasing Sentence Representations [109.70181221796469]
Sent-Debiasはバイアスを取り除くのに有効であり、同時に文レベルの下流タスクのパフォーマンスを保っていることを示す。
我々は、より公平なNLPのための広く採用されている文表現から社会的偏見を識別・除去する今後の研究に刺激を与えることを期待している。
論文 参考訳(メタデータ) (2020-07-16T04:22:30Z) - Double-Hard Debias: Tailoring Word Embeddings for Gender Bias Mitigation [94.98656228690233]
本稿では,性別サブスペースの推測と削除に先立って,コーパス正規性に対する単語埋め込みを浄化する手法を提案する。
本手法は,事前学習した単語埋め込みの分布的意味を保ちつつ,性別バイアスを従来の手法よりもはるかに大きい程度に低減する。
論文 参考訳(メタデータ) (2020-05-03T02:33:20Z) - Demographics Should Not Be the Reason of Toxicity: Mitigating
Discrimination in Text Classifications with Instance Weighting [36.87473475196733]
テキスト分類データセットにおける意図しないバイアスを,非識別分布から識別分布への選択バイアスの一種として定式化する。
本手法は, モデル一般化能力を著しく損なうことなく, 意図しないバイアスの影響を効果的に緩和することができる。
論文 参考訳(メタデータ) (2020-04-29T11:22:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。