論文の概要: Enhancing Legal Argument Mining with Domain Pre-training and Neural
Networks
- arxiv url: http://arxiv.org/abs/2202.13457v1
- Date: Sun, 27 Feb 2022 21:24:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-01 15:35:30.849040
- Title: Enhancing Legal Argument Mining with Domain Pre-training and Neural
Networks
- Title(参考訳): ドメイン事前学習とニューラルネットワークによる法的議論の緩和
- Authors: Gechuan Zhang, Paul Nulty, David Lillis
- Abstract要約: 文脈単語埋め込みモデルであるBERTは、限られた量の注釈付きデータで下流タスクにその能力を証明した。
BERTとその変種は、多くの学際的な研究領域における複雑なアノテーション作業の負担を軽減するのに役立つ。
- 参考スコア(独自算出の注目度): 0.45119235878273
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The contextual word embedding model, BERT, has proved its ability on
downstream tasks with limited quantities of annotated data. BERT and its
variants help to reduce the burden of complex annotation work in many
interdisciplinary research areas, for example, legal argument mining in digital
humanities. Argument mining aims to develop text analysis tools that can
automatically retrieve arguments and identify relationships between
argumentation clauses. Since argumentation is one of the key aspects of case
law, argument mining tools for legal texts are applicable to both academic and
non-academic legal research. Domain-specific BERT variants (pre-trained with
corpora from a particular background) have also achieved strong performance in
many tasks. To our knowledge, previous machine learning studies of argument
mining on judicial case law still heavily rely on statistical models. In this
paper, we provide a broad study of both classic and contextual embedding models
and their performance on practical case law from the European Court of Human
Rights (ECHR). During our study, we also explore a number of neural networks
when being combined with different embeddings. Our experiments provide a
comprehensive overview of a variety of approaches to the legal argument mining
task. We conclude that domain pre-trained transformer models have great
potential in this area, although traditional embeddings can also achieve strong
performance when combined with additional neural network layers.
- Abstract(参考訳): 文脈単語埋め込みモデルであるBERTは、限られた量の注釈付きデータで下流タスクにその能力を証明した。
bertとその変種は、デジタル人文科学における法的議論のマイニングなど、多くの学際研究分野における複雑なアノテーション作業の負担を軽減するのに役立つ。
引数マイニングは、引数を自動的に検索し、引数節間の関係を識別するテキスト分析ツールの開発を目的としている。
議論はケースローの重要な側面の1つであるため、法的テキストの議論的マイニングツールは学術的・非学術的な法律研究にも適用できる。
ドメイン固有のBERT変種(特定の背景からコーパスで事前訓練された)も多くのタスクで高いパフォーマンスを実現している。
我々の知る限りでは、裁判法における議論マイニングに関する過去の機械学習研究は、統計モデルに大きく依存している。
本稿では,欧州人権裁判所(ECHR)の古典的および文脈的埋め込みモデルとその実践的事例法における性能について広範な研究を行う。
研究では、異なる埋め込みと組み合わせられる際にも、多数のニューラルネットワークを探索する。
我々の実験は法的な議論のマイニングタスクに対する様々なアプローチの包括的な概要を提供する。
我々は、ドメイン事前トレーニングされたトランスフォーマーモデルがこの分野で大きな可能性を持っていると結論づけるが、従来の埋め込みは、追加のニューラルネットワーク層と組み合わせることで、高い性能を達成することができる。
関連論文リスト
- Combatting Human Trafficking in the Cyberspace: A Natural Language
Processing-Based Methodology to Analyze the Language in Online Advertisements [55.2480439325792]
このプロジェクトは、高度自然言語処理(NLP)技術により、オンラインC2Cマーケットプレースにおける人身売買の急激な問題に取り組む。
我々は、最小限の監督で擬似ラベル付きデータセットを生成する新しい手法を導入し、最先端のNLPモデルをトレーニングするための豊富なリソースとして機能する。
重要な貢献は、Integrated Gradientsを使った解釈可能性フレームワークの実装であり、法執行にとって重要な説明可能な洞察を提供する。
論文 参考訳(メタデータ) (2023-11-22T02:45:01Z) - Exploring the Potential of Large Language Models in Computational
Argumentation [59.926959119656416]
大規模言語モデル(LLM)は、文脈を理解し、自然言語を生成する強力な能力を示している。
既存のタスクを6つのメインクラスに整理し、14のオープンソースデータセットのフォーマットを標準化します。
大規模な実験により、LLMはこれらのデータセットのほとんどにわたって可換な性能を示すことが示された。
論文 参考訳(メタデータ) (2023-11-15T15:12:15Z) - Enhancing Pre-Trained Language Models with Sentence Position Embeddings
for Rhetorical Roles Recognition in Legal Opinions [0.16385815610837165]
法的意見の規模は増え続けており、法的意見の修辞的役割を正確に予測できるモデルを開発することはますます困難になっている。
本稿では,文の位置情報に関する知識によって強化された事前学習言語モデル(PLM)を用いて,修辞的役割を自動的に予測する新しいモデルアーキテクチャを提案する。
LegalEval@SemEval2023コンペティションの注釈付きコーパスに基づいて、我々のアプローチではパラメータが少なく、計算コストが低下することを示した。
論文 参考訳(メタデータ) (2023-10-08T20:33:55Z) - How to Handle Different Types of Out-of-Distribution Scenarios in
Computational Argumentation? A Comprehensive and Fine-Grained Field Study [66.4659448305396]
この研究は、オフ・オブ・ディストリビューション(OOD)シナリオにおけるLMの能力を体系的に評価する。
このような学習パラダイムの有効性は,OODの種類によって異なることがわかった。
具体的には、ICLはドメインシフトに優れているが、プロンプトベースの微調整はトピックシフトに勝っている。
論文 参考訳(メタデータ) (2023-09-15T11:15:47Z) - SAILER: Structure-aware Pre-trained Language Model for Legal Case
Retrieval [75.05173891207214]
判例検索は知的法体系において中心的な役割を果たす。
既存の言語モデルの多くは、異なる構造間の長距離依存関係を理解するのが難しい。
本稿では, LEgal ケース検索のための構造対応プレトランザクショナル言語モデルを提案する。
論文 参考訳(メタデータ) (2023-04-22T10:47:01Z) - The Legal Argument Reasoning Task in Civil Procedure [2.079168053329397]
我々は,米国民事訴訟の領域から新たなNLPタスクとデータセットを提示する。
データセットの各インスタンスは、ケースの一般的な導入、特定の質問、可能な解決策引数で構成されている。
論文 参考訳(メタデータ) (2022-11-05T17:41:00Z) - Revisiting the Roles of "Text" in Text Games [102.22750109468652]
本稿では,強化学習におけるテキストの役割について検討する。
本稿では,関連するコンテキスト情報を近似状態ハッシュに抽出する簡単な手法を提案する。
このような軽量なプラグインは最先端のテキストエージェントとの競合性能を実現する。
論文 参考訳(メタデータ) (2022-10-15T21:52:39Z) - Mining Legal Arguments in Court Decisions [43.09204050756282]
我々は,欧州人権裁判所の手続において,法的議論のための新たな注釈体系を開発する。
第2に、373の判決の大規模なコーパスをコンパイルし、注釈を付ける。
第三に、法的なNLPドメインにおける最先端モデルよりも優れた引数マイニングモデルを訓練する。
論文 参考訳(メタデータ) (2022-08-12T08:59:55Z) - Can Unsupervised Knowledge Transfer from Social Discussions Help
Argument Mining? [25.43442712037725]
本稿では,教師なし,議論型対話型知識の課題を克服するために,新しい伝達学習戦略を提案する。
本研究では,ChangeMyViewのサブレディットからの議論に富んだ社会的な議論を,教師なしの議論型知識の源泉として活用する。
本稿では,提案手法を補完する,コンポーネント間関係予測のための新しいプロンプトベースの戦略を提案する。
論文 参考訳(メタデータ) (2022-03-24T06:48:56Z) - The Unreasonable Effectiveness of the Baseline: Discussing SVMs in Legal
Text Classification [0.0]
サポートベクトルマシン分類器に基づくより伝統的なアプローチは、ディープラーニングモデルと競合する性能に達することを示す。
また,ベースライン上の特定BERTモデルを用いて得られた誤差の低減は,一般的な言語タスクと比較して法域において顕著に小さいことを強調した。
論文 参考訳(メタデータ) (2021-09-15T12:05:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。