論文の概要: Gender Bias Detection in Court Decisions: A Brazilian Case Study
- arxiv url: http://arxiv.org/abs/2406.00393v1
- Date: Sat, 1 Jun 2024 10:34:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-06 07:15:00.929497
- Title: Gender Bias Detection in Court Decisions: A Brazilian Case Study
- Title(参考訳): 司法判断における性バイアス検出 : ブラジルのケーススタディ
- Authors: Raysa Benatti, Fabiana Severi, Sandra Avila, Esther Luna Colombini,
- Abstract要約: ブラジルポルトガル語の裁判所判決において,ジェンダーバイアスを自動的に検出する実験的な枠組みを提案する。
コートアクティビティの研究・評価のための支援ツールとして提案されていることから,このような技術において重要な特徴を識別する。
- 参考スコア(独自算出の注目度): 4.948270494088624
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Data derived from the realm of the social sciences is often produced in digital text form, which motivates its use as a source for natural language processing methods. Researchers and practitioners have developed and relied on artificial intelligence techniques to collect, process, and analyze documents in the legal field, especially for tasks such as text summarization and classification. While increasing procedural efficiency is often the primary motivation behind natural language processing in the field, several works have proposed solutions for human rights-related issues, such as assessment of public policy and institutional social settings. One such issue is the presence of gender biases in court decisions, which has been largely studied in social sciences fields; biased institutional responses to gender-based violence are a violation of international human rights dispositions since they prevent gender minorities from accessing rights and hamper their dignity. Natural language processing-based approaches can help detect these biases on a larger scale. Still, the development and use of such tools require researchers and practitioners to be mindful of legal and ethical aspects concerning data sharing and use, reproducibility, domain expertise, and value-charged choices. In this work, we (a) present an experimental framework developed to automatically detect gender biases in court decisions issued in Brazilian Portuguese and (b) describe and elaborate on features we identify to be critical in such a technology, given its proposed use as a support tool for research and assessment of court~activity.
- Abstract(参考訳): 社会科学の領域から派生したデータは、しばしばデジタルテキスト形式で作成され、自然言語処理手法の源泉としての利用を動機付けている。
研究者や実践者は、特にテキスト要約や分類などのタスクにおいて、法律分野における文書を収集、処理、分析するための人工知能技術を開発し、利用してきた。
手続き的効率の向上は、この分野における自然言語処理の主要な動機となっていることが多いが、公共政策の評価や制度的な社会的設定など、人権に関する問題に対する解決策を提案している研究もいくつかある。
性別に基づく暴力に対する制度的反応の偏見は、男女マイノリティが権利にアクセスできなくなり、尊厳を損なうことを防いでいるため、国際人権処分に違反している。
自然言語処理に基づくアプローチは、これらのバイアスを大規模に検出するのに役立つ。
それでも、そのようなツールの開発と利用は、研究者や実践者がデータ共有と使用、再現性、ドメインの専門知識、そして価値に満ちた選択に関する法的および倫理的な側面に留意する必要がある。
この作品では、
(a)ブラジルポルトガル語及びブラジルポルトガル語の裁判所判決におけるジェンダーバイアスを自動的に検出する実験的枠組みについて述べる。
(b)裁判所活動の調査・評価のための支援ツールとして提案されていることから、このような技術に批判的であると認識する特徴について記述し、精査する。
関連論文リスト
- The Root Shapes the Fruit: On the Persistence of Gender-Exclusive Harms in Aligned Language Models [58.130894823145205]
我々はトランスジェンダー、ノンバイナリ、その他のジェンダー・ディバースのアイデンティティを中心とし、アライメント手順が既存のジェンダー・ディバースバイアスとどのように相互作用するかを検討する。
以上の結果から,DPO対応モデルは特に教師付き微調整に敏感であることが示唆された。
DPOとより広範なアライメントプラクティスに合わせたレコメンデーションで締めくくります。
論文 参考訳(メタデータ) (2024-11-06T06:50:50Z) - An evidence-based methodology for human rights impact assessment (HRIA) in the development of AI data-intensive systems [49.1574468325115]
我々は、すでに人権がデータ利用の分野で決定を下していることを示している。
本研究は人権影響評価(HRIA)の方法論とモデルである。
提案手法は,具体的ケーススタディで検証し,その有効性と有効性を示す。
論文 参考訳(メタデータ) (2024-07-30T16:27:52Z) - Leveraging Large Language Models to Measure Gender Bias in Gendered Languages [9.959039325564744]
本稿では,スペイン語コーパスにおけるジェンダー表現を定量的に分析するために,大規模言語モデル(LLM)の文脈理解機能を活用する新しい手法を提案する。
その結果,男女比が4:01の有意差があることが判明した。
論文 参考訳(メタデータ) (2024-06-19T16:30:58Z) - Questioning Biases in Case Judgment Summaries: Legal Datasets or Large
Language Models? [0.0]
本研究は,法的なデータセットと大規模言語モデルによる判断要約におけるバイアスについて検討する。
本研究は, これらの要約における偏見の正確性, 公平性, 含意を問うことによって, 法的文脈における技術の役割のより深い理解に寄与する。
論文 参考訳(メタデータ) (2023-12-01T13:00:45Z) - Unveiling Gender Bias in Terms of Profession Across LLMs: Analyzing and
Addressing Sociological Implications [0.0]
この研究は、AI言語モデルにおけるジェンダーバイアスに関する既存の研究を調査し、現在の知識のギャップを特定する。
この結果は,大規模言語モデルのアウトプットに存在する,ジェンダー付き単語関連,言語使用,偏見付き物語に光を当てた。
本稿では,アルゴリズムアプローチやデータ拡張手法など,LSMにおける性別バイアスを低減するための戦略を提案する。
論文 参考訳(メタデータ) (2023-07-18T11:38:45Z) - CORGI-PM: A Chinese Corpus For Gender Bias Probing and Mitigation [28.38578407487603]
高品質なラベル付き32.9k文を含む中国語cOrpus foR Gender bIas Probing and Mitigation CORGI-PMを提案する。
我々は,テキスト性バイアスを自動的に検出し,分類し,緩和するモデルを必要とする,テキスト性バイアスを緩和する3つの課題に対処する。
CORGI-PMは、性偏見と緩和のための最初の文レベルの中国語コーパスである。
論文 参考訳(メタデータ) (2023-01-01T12:48:12Z) - Should I disclose my dataset? Caveats between reproducibility and
individual data rights [5.816090284071069]
裁判所文書のデジタル利用は研究者の可能性を増大させる。
しかし、個人データ保護法は、データ露出に制限を課している。
我々は,この問題に関する法的・倫理的考察と研究者のガイドラインを提示する。
論文 参考訳(メタデータ) (2022-11-01T14:42:11Z) - Entity Graph Extraction from Legal Acts -- a Prototype for a Use Case in
Policy Design Analysis [52.77024349608834]
本稿では,公共政策設計の定量的研究を支援するために開発されたプロトタイプについて述べる。
本システムの目的は,法律文書の収集プロセスの自動化,機関文法の注釈付け,ハイパーグラフによる重要機関間の相互関係の分析である。
論文 参考訳(メタデータ) (2022-09-02T10:57:47Z) - Towards Understanding and Mitigating Social Biases in Language Models [107.82654101403264]
大規模事前訓練言語モデル(LM)は、望ましくない表現バイアスを示すのに潜在的に危険である。
テキスト生成における社会的バイアスを軽減するためのステップを提案する。
我々の経験的結果と人的評価は、重要な文脈情報を保持しながらバイアスを緩和する効果を示す。
論文 参考訳(メタデータ) (2021-06-24T17:52:43Z) - They, Them, Theirs: Rewriting with Gender-Neutral English [56.14842450974887]
私たちは、英語でジェンダーインクルージョンを促進する一般的な方法である特異点についてケーススタディを行います。
本研究では, 人為的データを持たない1%の単語誤り率で, ジェンダーニュートラルな英語を学習できるモデルについて述べる。
論文 参考訳(メタデータ) (2021-02-12T21:47:48Z) - Towards Debiasing Sentence Representations [109.70181221796469]
Sent-Debiasはバイアスを取り除くのに有効であり、同時に文レベルの下流タスクのパフォーマンスを保っていることを示す。
我々は、より公平なNLPのための広く採用されている文表現から社会的偏見を識別・除去する今後の研究に刺激を与えることを期待している。
論文 参考訳(メタデータ) (2020-07-16T04:22:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。