論文の概要: Disentangling Societal Inequality from Model Biases: Gender Inequality
in Divorce Court Proceedings
- arxiv url: http://arxiv.org/abs/2307.10200v1
- Date: Sun, 9 Jul 2023 02:31:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-23 11:27:13.058071
- Title: Disentangling Societal Inequality from Model Biases: Gender Inequality
in Divorce Court Proceedings
- Title(参考訳): モデルバイアスからの社会不平等の解消--離婚訴訟手続における性不平等
- Authors: Sujan Dutta and Parth Srivastava and Vaishnavi Solunke and Swaprava
Nath and Ashiqur R. KhudaBukhsh
- Abstract要約: 我々は17,306件の訴訟手続のコーパスを用いて、離婚訴訟のレンズを通して男女不平等を調査する。
これらの訴訟手続のAIによる分析は、しばしば家庭内暴力にさらされる女性に対して、男女不平等が顕著であることを示している。
- 参考スコア(独自算出の注目度): 9.475899090247648
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Divorce is the legal dissolution of a marriage by a court. Since this is
usually an unpleasant outcome of a marital union, each party may have reasons
to call the decision to quit which is generally documented in detail in the
court proceedings. Via a substantial corpus of 17,306 court proceedings, this
paper investigates gender inequality through the lens of divorce court
proceedings. While emerging data sources (e.g., public court records) on
sensitive societal issues hold promise in aiding social science research,
biases present in cutting-edge natural language processing (NLP) methods may
interfere with or affect such studies. We thus require a thorough analysis of
potential gaps and limitations present in extant NLP resources. In this paper,
on the methodological side, we demonstrate that existing NLP resources required
several non-trivial modifications to quantify societal inequalities. On the
substantive side, we find that while a large number of court cases perhaps
suggest changing norms in India where women are increasingly challenging
patriarchy, AI-powered analyses of these court proceedings indicate striking
gender inequality with women often subjected to domestic violence.
- Abstract(参考訳): 離婚は、裁判所による結婚の法的解消である。
これは通常、婚姻組合の不愉快な結果であるので、各当事者は、裁判所の手続で概ね詳細に文書化されている離脱決定を呼ぶ理由があるかもしれない。
本稿では,17,306件の訴訟手続の実質的コーパスとして,離婚手続のレンズを通して男女不平等を調査する。
センシティブな社会問題に関する新たなデータソース(例えば、公判記録)は、社会科学研究を支援する可能性を秘めているが、最先端自然言語処理(nlp)の手法に存在するバイアスは、そのような研究に干渉または影響する可能性がある。
したがって、既存のNLPリソースに存在する潜在的なギャップと限界を徹底的に分析する必要がある。
本稿では,既存のNLP資源が社会的不平等の定量化にいくつかの非自明な修正を必要としていることを示す。
従属的な側面では、多くの訴訟は、女性が父長制にますます挑戦しているインドにおける規範を変えることを示唆しているが、これらの訴訟のaiによる分析は、しばしば家庭内暴力にさらされる女性との男女不平等を示すことを示している。
関連論文リスト
- The Root Shapes the Fruit: On the Persistence of Gender-Exclusive Harms in Aligned Language Models [58.130894823145205]
我々はトランスジェンダー、ノンバイナリ、その他のジェンダー・ディバースのアイデンティティを中心とし、アライメント手順が既存のジェンダー・ディバースバイアスとどのように相互作用するかを検討する。
以上の結果から,DPO対応モデルは特に教師付き微調整に敏感であることが示唆された。
DPOとより広範なアライメントプラクティスに合わせたレコメンデーションで締めくくります。
論文 参考訳(メタデータ) (2024-11-06T06:50:50Z) - GenderCARE: A Comprehensive Framework for Assessing and Reducing Gender Bias in Large Language Models [73.23743278545321]
大規模言語モデル(LLM)は、自然言語生成において顕著な能力を示してきたが、社会的バイアスを増大させることも観察されている。
GenderCAREは、革新的な基準、バイアス評価、リダクションテクニック、評価メトリクスを含む包括的なフレームワークである。
論文 参考訳(メタデータ) (2024-08-22T15:35:46Z) - Gender Bias Detection in Court Decisions: A Brazilian Case Study [4.948270494088624]
ブラジルポルトガル語の裁判所判決において,ジェンダーバイアスを自動的に検出する実験的な枠組みを提案する。
コートアクティビティの研究・評価のための支援ツールとして提案されていることから,このような技術において重要な特徴を識別する。
論文 参考訳(メタデータ) (2024-06-01T10:34:15Z) - Gender Biased Legal Case Retrieval System on Users' Decision Process [14.764378117255609]
法ケースサーチは、法律実務者の作業において重要な部分となっている。
判例検索における性差は, 裁判官の知覚に有意な影響を与えなかった。
論文 参考訳(メタデータ) (2024-02-25T12:54:13Z) - Fair Enough: Standardizing Evaluation and Model Selection for Fairness
Research in NLP [64.45845091719002]
現代のNLPシステムは様々なバイアスを示しており、モデル偏見に関する文献が増えている。
本稿では,その現状を解明し,公正学習における意味ある進歩の道筋を立案することを目的とする。
論文 参考訳(メタデータ) (2023-02-11T14:54:00Z) - Robust Quantification of Gender Disparity in Pre-Modern English
Literature using Natural Language Processing [8.185725740857594]
前近代文学における女性キャラクタと男性キャラクタの有病率の相違を示す。
この不一致は、この世紀から長い期間にデータをプロットするにつれて、比較的安定しているように思われる。
我々は,本研究に関連する限界と倫理的注意点の両方を慎重に記述することを目的とする。
論文 参考訳(メタデータ) (2022-04-12T15:11:22Z) - #ContextMatters: Advantages and Limitations of Using Machine Learning to
Support Women in Politics [0.15749416770494704]
ParityBOTはカナダ、アメリカ合衆国、ニュージーランドで選挙が行われた。
女性候補者に向けられた1200万件以上のツイートを分析して分類し、支持的なツイートで有害なツイートに対処するために使われた。
本研究では,ParityBOTが特定の女性に向けられた侮辱を取り上げなかった偽陰性率について検討した。
論文 参考訳(メタデータ) (2021-09-30T22:55:49Z) - Sexism in the Judiciary [0.0]
我々は670万件の訴訟法文書を分析し、司法制度における性別バイアスの存在を判断する。
NLPにおける現在のバイアス検出法は、我々の事例法データベースにおける性別バイアスを決定するのに不十分であることがわかった。
論文 参考訳(メタデータ) (2021-06-29T05:38:53Z) - What About the Precedent: An Information-Theoretic Analysis of Common
Law [64.49276556192073]
一般的な法律では、新しい事件の結果は、既存の法令ではなく、前例によって決定されることが多い。
私たちは、2つの長年にわたる法学的な見解を比較することで、この問題に最初に取り組みました。
前例の主張は事件の結果と0.38ナットの情報を共有しているのに対し、前例の事実は0.18ナットの情報しか共有していない。
論文 参考訳(メタデータ) (2021-04-25T11:20:09Z) - Equality before the Law: Legal Judgment Consistency Analysis for
Fairness [55.91612739713396]
本論文では,LInCo(Legal Inconsistency Coefficient)の判定不整合性評価指標を提案する。
法的な判断予測(LJP)モデルを用いて異なる集団の裁判官をシミュレートし、異なる集団で訓練されたLJPモデルによる判断結果の不一致を判断する。
私達はLInCoを実際の場合の不一致を探検するために使用し、次の観察に来ます:(1)地域およびジェンダーの不一致は法制度でありますが、ジェンダーの不一致は地方不一致より大いにより少しです。
論文 参考訳(メタデータ) (2021-03-25T14:28:00Z) - Towards Debiasing Sentence Representations [109.70181221796469]
Sent-Debiasはバイアスを取り除くのに有効であり、同時に文レベルの下流タスクのパフォーマンスを保っていることを示す。
我々は、より公平なNLPのための広く採用されている文表現から社会的偏見を識別・除去する今後の研究に刺激を与えることを期待している。
論文 参考訳(メタデータ) (2020-07-16T04:22:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。