論文の概要: Are manual annotations necessary for statutory interpretations retrieval?
- arxiv url: http://arxiv.org/abs/2506.13965v1
- Date: Mon, 16 Jun 2025 20:15:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-18 17:34:59.231751
- Title: Are manual annotations necessary for statutory interpretations retrieval?
- Title(参考訳): 法解釈検索には手動アノテーションが必要か?
- Authors: Aleksander Smywiński-Pohl, Tomer Libal, Adam Kaczmarczyk, Magdalena Król,
- Abstract要約: 法的な概念によって最適なアノテーション数を決定することを試みる。
また、アノテーションの文がランダムに描けるか、あるいはモデルの性能が向上しているかも確認する。
- 参考スコア(独自算出の注目度): 41.94295877935867
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: One of the elements of legal research is looking for cases where judges have extended the meaning of a legal concept by providing interpretations of what a concept means or does not mean. This allow legal professionals to use such interpretations as precedents as well as laymen to better understand the legal concept. The state-of-the-art approach for retrieving the most relevant interpretations for these concepts currently depends on the ranking of sentences and the training of language models over annotated examples. That manual annotation process can be quite expensive and need to be repeated for each such concept, which prompted recent research in trying to automate this process. In this paper, we highlight the results of various experiments conducted to determine the volume, scope and even the need for manual annotation. First of all, we check what is the optimal number of annotations per a legal concept. Second, we check if we can draw the sentences for annotation randomly or there is a gain in the performance of the model, when only the best candidates are annotated. As the last question we check what is the outcome of automating the annotation process with the help of an LLM.
- Abstract(参考訳): 法的研究の要素の1つは、裁判官が、ある概念の意味や意味しない意味の解釈を提供することで、法的概念の意味を拡張した事例を探すことである。
これにより、法律専門家は、そのような解釈を前例として使うことができ、また法的な概念をよりよく理解することができる。
これらの概念の最も関連性の高い解釈を検索するための最先端のアプローチは、現在、注釈付き例よりも文章のランク付けと言語モデルの訓練に依存している。
この手動のアノテーションプロセスは非常に高価で、このような概念ごとに繰り返し実施する必要があるため、最近の研究でこのプロセスの自動化が試みられている。
本稿では,手作業によるアノテーションの量,スコープ,さらには手作業によるアノテーションの必要性について,様々な実験結果について紹介する。
まず、法的な概念に対して最適なアノテーション数を確認します。
第二に、最適な候補がアノテートされた場合に、ランダムにアノテーションの文を描けるか、あるいはモデルの性能が向上しているかを確認する。
最後の質問として、LLMの助けを借りてアノテーションプロセスを自動化する結果が何であるかを確認します。
関連論文リスト
- Automating Legal Interpretation with LLMs: Retrieval, Generation, and Evaluation [27.345475442620746]
ATRIEは法的概念解釈器と法的な概念解釈評価器から構成される。
私たちの解釈の質は、法の専門家によって書かれたものと同等であり、包括性と可読性に優れています。
精度に差はあるものの、法律実務者が法解釈の効率を改善するのに既に助けることができる。
論文 参考訳(メタデータ) (2025-01-03T10:11:38Z) - DELTA: Pre-train a Discriminative Encoder for Legal Case Retrieval via Structural Word Alignment [55.91429725404988]
判例検索のための識別モデルであるDELTAを紹介する。
我々は浅層デコーダを利用して情報ボトルネックを作り、表現能力の向上を目指しています。
本手法は, 判例検索において, 既存の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2024-03-27T10:40:14Z) - Using Natural Language Explanations to Rescale Human Judgments [81.66697572357477]
大規模言語モデル(LLM)を用いて順序付けアノテーションと説明を再スケールする手法を提案する。
我々は、アノテータのLikert評価とそれに対応する説明をLLMに入力し、スコア付けルーリックに固定された数値スコアを生成する。
提案手法は,合意に影響を及ぼさずに生の判断を再スケールし,そのスコアを同一のスコア付けルーリックに接する人間の判断に近づける。
論文 参考訳(メタデータ) (2023-05-24T06:19:14Z) - Unlocking Practical Applications in Legal Domain: Evaluation of GPT for
Zero-Shot Semantic Annotation of Legal Texts [0.0]
我々は、短いテキストスニペットのセマンティックアノテーションを実行するための、最先端の生成事前学習トランスフォーマ(GPT)モデルの有効性を評価する。
その結果、GPTモデルは様々な種類の文書のゼロショット設定において驚くほどよく機能することがわかった。
論文 参考訳(メタデータ) (2023-05-08T01:55:53Z) - Exploiting Contrastive Learning and Numerical Evidence for Confusing
Legal Judgment Prediction [46.71918729837462]
訴訟の事実記述文を考慮し、法的判断予測は、事件の告訴、法律記事、刑期を予測することを目的としている。
従来の研究では、標準的なクロスエントロピー分類損失と異なる分類誤差を区別できなかった。
本稿では,モコに基づく教師付きコントラスト学習を提案する。
さらに,事前学習した数値モデルにより符号化された抽出された犯罪量による事実記述の表現をさらに強化する。
論文 参考訳(メタデータ) (2022-11-15T15:53:56Z) - Sentence Embeddings and High-speed Similarity Search for Fast Computer
Assisted Annotation of Legal Documents [0.5249805590164901]
文章を「横」にアノテートするための概念証明システムを提案する。
アプローチは、意味的に類似した文が、特定の型システムにおいて、しばしば同じラベルを持つという観察に基づいている。
論文 参考訳(メタデータ) (2021-12-21T19:27:21Z) - Discovering Explanatory Sentences in Legal Case Decisions Using
Pre-trained Language Models [0.7614628596146599]
法的テキストは理解が難しい概念を常用する。
弁護士は、過去にどのように使われてきたのかを注意深く調べることで、そのような概念の意味を詳しく説明している。
特定の概念に便利な方法で言及するテキストスニペットを見つけるのは退屈で、時間がかかるため、コストがかかる。
論文 参考訳(メタデータ) (2021-12-14T04:56:39Z) - Fine-Grained Opinion Summarization with Minimal Supervision [48.43506393052212]
FineSumは、複数のドキュメントから意見を抽出することでターゲットをプロファイルすることを目的としている。
FineSumは、生のコーパスから意見語句を自動的に識別し、異なる側面と感情に分類し、各アスペクト/感覚の下に複数のきめ細かい意見クラスタを構築する。
ベンチマークの自動評価と定量的人的評価の両方が,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2021-10-17T15:16:34Z) - Annotation Curricula to Implicitly Train Non-Expert Annotators [56.67768938052715]
自発的な研究は、しばしば、アノテータがタスク、そのアノテーションスキーム、およびデータドメインに精通することを要求する。
これは最初は圧倒的であり、精神的に課税され、結果として生じるアノテーションにエラーを誘導する。
暗黙的にアノテータを訓練する新しい手法であるアノテーションキュリキュラを提案する。
論文 参考訳(メタデータ) (2021-06-04T09:48:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。