論文の概要: Are Models Trained on Indian Legal Data Fair?
- arxiv url: http://arxiv.org/abs/2303.07247v2
- Date: Tue, 14 Mar 2023 17:40:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-15 11:11:44.073622
- Title: Are Models Trained on Indian Legal Data Fair?
- Title(参考訳): モデルはインドの法律データフェアで訓練されているか?
- Authors: Sahil Girhepuje, Anmol Goel, Gokul S Krishnan, Shreya Goyal, Satyendra
Pandey, Ponnurangam Kumaraguru and Balaraman Ravindran
- Abstract要約: 法律分野におけるインドの観点からの公正性に関する最初の調査を提示する。
本研究では、保釈予測タスクのために訓練された決定木モデルにおいて、ヒンドゥー教とムスリムに関連する入力特徴間の全体的な公平性格差が0.237であることを示す。
- 参考スコア(独自算出の注目度): 19.13067910742914
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances and applications of language technology and artificial
intelligence have enabled much success across multiple domains like law,
medical and mental health. AI-based Language Models, like Judgement Prediction,
have recently been proposed for the legal sector. However, these models are
strife with encoded social biases picked up from the training data. While bias
and fairness have been studied across NLP, most studies primarily locate
themselves within a Western context. In this work, we present an initial
investigation of fairness from the Indian perspective in the legal domain. We
highlight the propagation of learnt algorithmic biases in the bail prediction
task for models trained on Hindi legal documents. We evaluate the fairness gap
using demographic parity and show that a decision tree model trained for the
bail prediction task has an overall fairness disparity of 0.237 between input
features associated with Hindus and Muslims. Additionally, we highlight the
need for further research and studies in the avenues of fairness/bias in
applying AI in the legal sector with a specific focus on the Indian context.
- Abstract(参考訳): 言語技術と人工知能の最近の進歩と応用は、法律、医療、精神保健といった複数の領域で大きな成功を収めている。
AIベースの言語モデル、例えば判断予測は、最近法分野に提案されている。
しかし、これらのモデルは、トレーニングデータから取り出された社会的バイアスが符号化されている。
偏見と公平性はNLP全体で研究されているが、ほとんどの研究は主に西洋の文脈にある。
本研究は,インドの法律分野における公正性に関する最初の調査である。
ヒンディー語法文書で訓練されたモデルに対する保留予測タスクにおける学習アルゴリズムバイアスの伝播に注目した。
人口統計学的パリティを用いてフェアネスギャップを評価し,保釈予測タスクに訓練された決定木モデルが,ヒンドゥー教とムスリムに関連する入力特徴間で0.237のフェアネス差を持つことを示した。
さらに、インドの文脈に焦点を絞った法律分野におけるaiの適用において、公正/バイアスの道筋でさらなる研究と研究が必要であることも強調する。
関連論文リスト
- Fair Enough: Standardizing Evaluation and Model Selection for Fairness
Research in NLP [64.45845091719002]
現代のNLPシステムは様々なバイアスを示しており、モデル偏見に関する文献が増えている。
本稿では,その現状を解明し,公正学習における意味ある進歩の道筋を立案することを目的とする。
論文 参考訳(メタデータ) (2023-02-11T14:54:00Z) - ClassActionPrediction: A Challenging Benchmark for Legal Judgment
Prediction of Class Action Cases in the US [0.0]
米国におけるクラスアクションケースに焦点を当てた、挑戦的なLJPデータセットを初めてリリースしました。
これは、裁判所がしばしば使用する事実の要約ではなく、苦情を入力として含む、より難しくより現実的なタスクに焦点を当てた、共通の法体系における最初のデータセットである。
我々のLongformerモデルは、最初の2,048トークンしか考慮していないにもかかわらず、明らかに人間のベースライン(63%)を上回っている。さらに、詳細なエラー解析を行い、Longformerモデルが人間の専門家よりも格付けがかなり優れていることを発見した。
論文 参考訳(メタデータ) (2022-11-01T16:57:59Z) - Do Charge Prediction Models Learn Legal Theory? [59.74220430434435]
我々は、信頼できる電荷予測モデルが法的理論を考慮に入れるべきであると主張している。
本稿では,この課題に従わなければならない信頼に値するモデルの3つの原則を提案する。
以上の結果から,既存の電荷予測モデルはベンチマークデータセットの選択的原理に合致するが,そのほとんどが十分な感度が得られず,無害の予測を満たさないことが示唆された。
論文 参考訳(メタデータ) (2022-10-31T07:32:12Z) - Decoding Demographic un-fairness from Indian Names [4.402336973466853]
デモグラフィック分類は、レコメンデーションシステムにおける公正度評価や、オンラインネットワークや投票システムにおける意図しない偏見の測定に不可欠である。
我々は3つの公開データセットを収集し、性別分類とキャスト分類の領域で最先端の分類器を訓練する。
上記のモデルの有効性を理解するために、クロステスト(異なるデータセットでのトレーニングとテスト)を実施します。
論文 参考訳(メタデータ) (2022-09-07T11:54:49Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Lawformer: A Pre-trained Language Model for Chinese Legal Long Documents [56.40163943394202]
我々は,中国法定長文理解のためのLongformerベースの事前学習言語モデル,Lawformerをリリースする。
判決の予測,類似事例の検索,法的読解,法的質問の回答など,さまざまな法務上の課題について法務担当者を評価した。
論文 参考訳(メタデータ) (2021-05-09T09:39:25Z) - Representative & Fair Synthetic Data [68.8204255655161]
公平性制約を自己監督学習プロセスに組み込むためのフレームワークを提示する。
私たちはuci成人国勢調査データセットの代表者および公正版を作成します。
我々は、代表的かつ公正な合成データを将来有望なビルディングブロックとみなし、歴史的世界ではなく、私たちが生きようとしている世界についてアルゴリズムを教える。
論文 参考訳(メタデータ) (2021-04-07T09:19:46Z) - Re-imagining Algorithmic Fairness in India and Beyond [9.667710168953239]
アルゴリズムの公平性を分離し、インドのaiパワーを分析します。
社会経済的要因によってデータが必ずしも信頼できるとは限らない。
データとモデルの再コンテキスト化、抑圧されたコミュニティの強化、Fair-MLエコシステムの実現のためのロードマップを提供します。
論文 参考訳(メタデータ) (2021-01-25T10:20:57Z) - Non-portability of Algorithmic Fairness in India [9.8164690355257]
我々は、単なる技術的公正性のインドのサブグループへの翻訳は、ウィンドウドレッシングとしてのみ機能すると主張している。
データとモデルをコンテクスト化し、抑圧されたコミュニティを力づけることによって、Fair-MLの集合的な再イメージが、エコシステムを可能にする、と我々は主張する。
論文 参考訳(メタデータ) (2020-12-03T23:14:13Z) - Grading video interviews with fairness considerations [1.7403133838762446]
本稿では,質問に対するビデオ応答に基づいて,候補者の社会的スキルを自動的に導き出す手法を提案する。
社会的スキルを予測するための2つの機械学習モデルを開発した。
我々は、人種と性別によるモデルの誤りを研究することによって、公正さを分析する。
論文 参考訳(メタデータ) (2020-07-02T10:06:13Z) - How Does NLP Benefit Legal System: A Summary of Legal Artificial
Intelligence [81.04070052740596]
法律人工知能(Legal AI)は、人工知能、特に自然言語処理の技術を適用して、法的領域におけるタスクに役立てることに焦点を当てている。
本稿では,LegalAIにおける研究の歴史,現状,今後の方向性について紹介する。
論文 参考訳(メタデータ) (2020-04-25T14:45:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。