論文の概要: Automated Extraction of Sentencing Decisions from Court Cases in the
Hebrew Language
- arxiv url: http://arxiv.org/abs/2110.12383v1
- Date: Sun, 24 Oct 2021 08:01:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-26 15:43:49.116208
- Title: Automated Extraction of Sentencing Decisions from Court Cases in the
Hebrew Language
- Title(参考訳): ヘブライ語における裁判所判決の自動抽出
- Authors: Mohr Wenger, Tom Kalir, Noga Berger, Carmit Chalamish, Renana Keydar,
Gabriel Stanovsky
- Abstract要約: ヘブライ語における刑事訴訟の判決における自動処罰抽出(APE)に対処する。
我々は、性的暴行判決のデータセットと手動によるアノテート評価データセットをキュレートする。
教師付きモデルでは、文を精度良く識別できるが、ルールベースのアプローチは完全な APE タスクよりも優れている。
- 参考スコア(独自算出の注目度): 8.00388161728995
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present the task of Automated Punishment Extraction (APE) in sentencing
decisions from criminal court cases in Hebrew. Addressing APE will enable the
identification of sentencing patterns and constitute an important stepping
stone for many follow up legal NLP applications in Hebrew, including the
prediction of sentencing decisions. We curate a dataset of sexual assault
sentencing decisions and a manually-annotated evaluation dataset, and implement
rule-based and supervised models. We find that while supervised models can
identify the sentence containing the punishment with good accuracy, rule-based
approaches outperform them on the full APE task. We conclude by presenting a
first analysis of sentencing patterns in our dataset and analyze common models'
errors, indicating avenues for future work, such as distinguishing between
probation and actual imprisonment punishment. We will make all our resources
available upon request, including data, annotation, and first benchmark models.
- Abstract(参考訳): 本稿では,ヘブライ語における刑事訴訟の判決に対するAPE(Automated Punishment extract)の課題について述べる。
APEに対処することで、センテンシングのパターンの識別が可能になり、センテンシング決定の予測を含む多くの法的なNLPアプリケーションに追従するための重要な一歩となる。
我々は、性的暴行判決のデータセットと手作業による評価データセットをキュレートし、ルールベースおよび監督モデルを実装した。
教師付きモデルでは、刑罰を含む文を精度良く識別できるが、規則に基づくアプローチは、完全なAPEタスクよりも優れている。
結論として,データセット内の送信パターンを最初に分析し,一般的なモデルの誤りを分析し,プロベーションと実刑罰の区別など,今後の作業への道筋を示す。
データやアノテーション,最初のベンチマークモデルなど,すべてのリソースを要求に応じて提供します。
関連論文リスト
- Breaking the Manual Annotation Bottleneck: Creating a Comprehensive Legal Case Criticality Dataset through Semi-Automated Labeling [16.529070321280447]
本稿では,スイス最高裁判所の判決が将来の法制化に与える影響を評価するための新たな資源である臨界度予測データセットを紹介する。
リソース集約的な手動アノテーションに依存する既存のアプローチとは異なり、私たちはラベルを半自動で導き、はるかに大きなデータセットを生み出します。
我々は、微調整された変種や大規模言語モデルを含む複数の多言語モデルを評価し、微調整されたモデルがゼロショットベースラインを一貫して上回っていることを発見した。
論文 参考訳(メタデータ) (2024-10-17T11:43:16Z) - Aligning Large Language Models by On-Policy Self-Judgment [49.31895979525054]
大規模言語モデルと人間の嗜好を整合させる既存のアプローチは、オンライン学習のために別々の報酬モデル(RM)を必要とするトレードオフに直面しています。
本稿では,オンライン学習を行う新たなアライメントフレームワークSELF-JUDGEを提案する。
また, さらなる評価を行なわずに, サンプリング自体がさらなる性能向上に寄与することを示した。
論文 参考訳(メタデータ) (2024-02-17T11:25:26Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - LibriSpeech-PC: Benchmark for Evaluation of Punctuation and
Capitalization Capabilities of end-to-end ASR Models [58.790604613878216]
我々は,エンドツーエンドのASRモデルの句読点と大文字化予測能力を評価するために,LibriSpeech-PCベンチマークを導入する。
このベンチマークには、リストアされた句読点とキャピタライゼーションを備えたLibriSpeech-PCデータセット、句読点に焦点を当てたPunctuation Error Rate (PER)と呼ばれる新しい評価指標、および初期ベースラインモデルが含まれている。
論文 参考訳(メタデータ) (2023-10-04T16:23:37Z) - Wiki-En-ASR-Adapt: Large-scale synthetic dataset for English ASR
Customization [66.22007368434633]
自動音声認識(ASR)のコンテキストスペルチェックカスタマイズのための,最初の大規模公開合成データセットを提案する。
提案手法により、崩壊したASR仮説の数百万の現実的な例を作成し、カスタマイズタスクの非自明なバイアスリストをシミュレートすることができる。
提案したデータセット上で,オープンソースのカスタマイズモデルをトレーニングした実験を報告し,ハードネガティブなバイアスフレーズの注入がWERを減少させ,誤報の回数を減少させることを示す。
論文 参考訳(メタデータ) (2023-09-29T14:18:59Z) - Using Natural Language Explanations to Rescale Human Judgments [81.66697572357477]
大規模言語モデル(LLM)を用いて順序付けアノテーションと説明を再スケールする手法を提案する。
我々は、アノテータのLikert評価とそれに対応する説明をLLMに入力し、スコア付けルーリックに固定された数値スコアを生成する。
提案手法は,合意に影響を及ぼさずに生の判断を再スケールし,そのスコアを同一のスコア付けルーリックに接する人間の判断に近づける。
論文 参考訳(メタデータ) (2023-05-24T06:19:14Z) - Leveraging task dependency and contrastive learning for Legal Judgement
Prediction on the European Court of Human Rights [1.252149409594807]
欧州人権裁判所における法的判断予測実験について報告する。
我々のモデルは、対照的な損失を伴わないシングルタスクモデルとジョイントモデルに対して、小さなが一貫した予測性能の向上をもたらす。
論文 参考訳(メタデータ) (2023-02-01T21:38:47Z) - Exploiting Contrastive Learning and Numerical Evidence for Confusing
Legal Judgment Prediction [46.71918729837462]
訴訟の事実記述文を考慮し、法的判断予測は、事件の告訴、法律記事、刑期を予測することを目的としている。
従来の研究では、標準的なクロスエントロピー分類損失と異なる分類誤差を区別できなかった。
本稿では,モコに基づく教師付きコントラスト学習を提案する。
さらに,事前学習した数値モデルにより符号化された抽出された犯罪量による事実記述の表現をさらに強化する。
論文 参考訳(メタデータ) (2022-11-15T15:53:56Z) - Using attention methods to predict judicial outcomes [0.0]
私たちは、ブラジルの法体系における司法結果を予測するためにAI分類器を使用しました。
これらのテキストは、第二級殺人と活発な汚職事件のデータセットを形成した。
我々の研究では、回帰木、Gated Recurring Units、階層的注意ネットワークが、異なるサブセットに対してより高いメトリクスを示しました。
論文 参考訳(メタデータ) (2022-07-18T16:24:34Z) - Sequential Multi-task Learning with Task Dependency for Appeal Judgment
Prediction [28.505366852202794]
法的判断予測(LJP)は、告訴、関連する法律記事、刑期などの判断結果を自動的に予測することを目的としている。
本稿では,上訴裁判所の控訴審判決を判断する上訴判断予測(AJP)について検討する。
本稿では,これらの課題に対処するために,SMAJudge (Task Dependency for Appeal Judgement Prediction) を用いた逐次マルチタスク学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-09T08:51:13Z) - Analyzing a Carceral Algorithm used by the Pennsylvania Department of
Corrections [0.0]
本論文は、投獄中の囚人の収容レベルを分類するために使用されるペンシルベニア付加分類ツール(PACT)に焦点を当てる。
この場合のアルゴリズムは、追加の懲戒行為に耐え、必要なプログラミングを完了し、特に仮釈放アルゴリズムに入力される変数に蒸留される経験を得る可能性を決定する。
論文 参考訳(メタデータ) (2021-12-06T18:47:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。