論文の概要: Enhancing Legal Argument Mining with Domain Pre-training and Neural
Networks
- arxiv url: http://arxiv.org/abs/2202.13457v1
- Date: Sun, 27 Feb 2022 21:24:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-01 15:35:30.849040
- Title: Enhancing Legal Argument Mining with Domain Pre-training and Neural
Networks
- Title(参考訳): ドメイン事前学習とニューラルネットワークによる法的議論の緩和
- Authors: Gechuan Zhang, Paul Nulty, David Lillis
- Abstract要約: 文脈単語埋め込みモデルであるBERTは、限られた量の注釈付きデータで下流タスクにその能力を証明した。
BERTとその変種は、多くの学際的な研究領域における複雑なアノテーション作業の負担を軽減するのに役立つ。
- 参考スコア(独自算出の注目度): 0.45119235878273
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The contextual word embedding model, BERT, has proved its ability on
downstream tasks with limited quantities of annotated data. BERT and its
variants help to reduce the burden of complex annotation work in many
interdisciplinary research areas, for example, legal argument mining in digital
humanities. Argument mining aims to develop text analysis tools that can
automatically retrieve arguments and identify relationships between
argumentation clauses. Since argumentation is one of the key aspects of case
law, argument mining tools for legal texts are applicable to both academic and
non-academic legal research. Domain-specific BERT variants (pre-trained with
corpora from a particular background) have also achieved strong performance in
many tasks. To our knowledge, previous machine learning studies of argument
mining on judicial case law still heavily rely on statistical models. In this
paper, we provide a broad study of both classic and contextual embedding models
and their performance on practical case law from the European Court of Human
Rights (ECHR). During our study, we also explore a number of neural networks
when being combined with different embeddings. Our experiments provide a
comprehensive overview of a variety of approaches to the legal argument mining
task. We conclude that domain pre-trained transformer models have great
potential in this area, although traditional embeddings can also achieve strong
performance when combined with additional neural network layers.
- Abstract(参考訳): 文脈単語埋め込みモデルであるBERTは、限られた量の注釈付きデータで下流タスクにその能力を証明した。
bertとその変種は、デジタル人文科学における法的議論のマイニングなど、多くの学際研究分野における複雑なアノテーション作業の負担を軽減するのに役立つ。
引数マイニングは、引数を自動的に検索し、引数節間の関係を識別するテキスト分析ツールの開発を目的としている。
議論はケースローの重要な側面の1つであるため、法的テキストの議論的マイニングツールは学術的・非学術的な法律研究にも適用できる。
ドメイン固有のBERT変種(特定の背景からコーパスで事前訓練された)も多くのタスクで高いパフォーマンスを実現している。
我々の知る限りでは、裁判法における議論マイニングに関する過去の機械学習研究は、統計モデルに大きく依存している。
本稿では,欧州人権裁判所(ECHR)の古典的および文脈的埋め込みモデルとその実践的事例法における性能について広範な研究を行う。
研究では、異なる埋め込みと組み合わせられる際にも、多数のニューラルネットワークを探索する。
我々の実験は法的な議論のマイニングタスクに対する様々なアプローチの包括的な概要を提供する。
我々は、ドメイン事前トレーニングされたトランスフォーマーモデルがこの分野で大きな可能性を持っていると結論づけるが、従来の埋め込みは、追加のニューラルネットワーク層と組み合わせることで、高い性能を達成することができる。
関連論文リスト
- Prompting Encoder Models for Zero-Shot Classification: A Cross-Domain Study in Italian [75.94354349994576]
本稿では,より小型のドメイン固有エンコーダ LM と,特殊なコンテキストにおける性能向上手法の併用の可能性について検討する。
本研究は, イタリアの官僚的・法的言語に焦点をあて, 汎用モデルと事前学習型エンコーダのみのモデルの両方を実験する。
その結果, 事前学習したモデルでは, 一般知識の頑健性が低下する可能性があるが, ドメイン固有のタスクに対して, ゼロショット設定においても, より優れた適応性を示すことがわかった。
論文 参考訳(メタデータ) (2024-07-30T08:50:16Z) - DELTA: Pre-train a Discriminative Encoder for Legal Case Retrieval via Structural Word Alignment [55.91429725404988]
判例検索のための識別モデルであるDELTAを紹介する。
我々は浅層デコーダを利用して情報ボトルネックを作り、表現能力の向上を目指しています。
本手法は, 判例検索において, 既存の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2024-03-27T10:40:14Z) - Exploring the Potential of Large Language Models in Computational Argumentation [54.85665903448207]
大規模言語モデル (LLM) は、文脈を理解し、自然言語を生成するという印象的な能力を実証している。
この研究は、ChatGPT、Flanモデル、LLaMA2モデルなどのLLMをゼロショットと少数ショットの両方で評価することを目的としている。
論文 参考訳(メタデータ) (2023-11-15T15:12:15Z) - Enhancing Pre-Trained Language Models with Sentence Position Embeddings
for Rhetorical Roles Recognition in Legal Opinions [0.16385815610837165]
法的意見の規模は増え続けており、法的意見の修辞的役割を正確に予測できるモデルを開発することはますます困難になっている。
本稿では,文の位置情報に関する知識によって強化された事前学習言語モデル(PLM)を用いて,修辞的役割を自動的に予測する新しいモデルアーキテクチャを提案する。
LegalEval@SemEval2023コンペティションの注釈付きコーパスに基づいて、我々のアプローチではパラメータが少なく、計算コストが低下することを示した。
論文 参考訳(メタデータ) (2023-10-08T20:33:55Z) - SAILER: Structure-aware Pre-trained Language Model for Legal Case
Retrieval [75.05173891207214]
判例検索は知的法体系において中心的な役割を果たす。
既存の言語モデルの多くは、異なる構造間の長距離依存関係を理解するのが難しい。
本稿では, LEgal ケース検索のための構造対応プレトランザクショナル言語モデルを提案する。
論文 参考訳(メタデータ) (2023-04-22T10:47:01Z) - The Legal Argument Reasoning Task in Civil Procedure [2.079168053329397]
我々は,米国民事訴訟の領域から新たなNLPタスクとデータセットを提示する。
データセットの各インスタンスは、ケースの一般的な導入、特定の質問、可能な解決策引数で構成されている。
論文 参考訳(メタデータ) (2022-11-05T17:41:00Z) - Revisiting the Roles of "Text" in Text Games [102.22750109468652]
本稿では,強化学習におけるテキストの役割について検討する。
本稿では,関連するコンテキスト情報を近似状態ハッシュに抽出する簡単な手法を提案する。
このような軽量なプラグインは最先端のテキストエージェントとの競合性能を実現する。
論文 参考訳(メタデータ) (2022-10-15T21:52:39Z) - Mining Legal Arguments in Court Decisions [43.09204050756282]
我々は,欧州人権裁判所の手続において,法的議論のための新たな注釈体系を開発する。
第2に、373の判決の大規模なコーパスをコンパイルし、注釈を付ける。
第三に、法的なNLPドメインにおける最先端モデルよりも優れた引数マイニングモデルを訓練する。
論文 参考訳(メタデータ) (2022-08-12T08:59:55Z) - Can Unsupervised Knowledge Transfer from Social Discussions Help
Argument Mining? [25.43442712037725]
本稿では,教師なし,議論型対話型知識の課題を克服するために,新しい伝達学習戦略を提案する。
本研究では,ChangeMyViewのサブレディットからの議論に富んだ社会的な議論を,教師なしの議論型知識の源泉として活用する。
本稿では,提案手法を補完する,コンポーネント間関係予測のための新しいプロンプトベースの戦略を提案する。
論文 参考訳(メタデータ) (2022-03-24T06:48:56Z) - The Unreasonable Effectiveness of the Baseline: Discussing SVMs in Legal
Text Classification [0.0]
サポートベクトルマシン分類器に基づくより伝統的なアプローチは、ディープラーニングモデルと競合する性能に達することを示す。
また,ベースライン上の特定BERTモデルを用いて得られた誤差の低減は,一般的な言語タスクと比較して法域において顕著に小さいことを強調した。
論文 参考訳(メタデータ) (2021-09-15T12:05:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。