論文の概要: Discovering Explanatory Sentences in Legal Case Decisions Using
Pre-trained Language Models
- arxiv url: http://arxiv.org/abs/2112.07165v1
- Date: Tue, 14 Dec 2021 04:56:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-15 15:57:27.581262
- Title: Discovering Explanatory Sentences in Legal Case Decisions Using
Pre-trained Language Models
- Title(参考訳): 事前学習言語モデルを用いた判例決定における説明文の発見
- Authors: Jaromir Savelka, Kevin D. Ashley
- Abstract要約: 法的テキストは理解が難しい概念を常用する。
弁護士は、過去にどのように使われてきたのかを注意深く調べることで、そのような概念の意味を詳しく説明している。
特定の概念に便利な方法で言及するテキストスニペットを見つけるのは退屈で、時間がかかるため、コストがかかる。
- 参考スコア(独自算出の注目度): 0.7614628596146599
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Legal texts routinely use concepts that are difficult to understand. Lawyers
elaborate on the meaning of such concepts by, among other things, carefully
investigating how have they been used in past. Finding text snippets that
mention a particular concept in a useful way is tedious, time-consuming, and,
hence, expensive. We assembled a data set of 26,959 sentences, coming from
legal case decisions, and labeled them in terms of their usefulness for
explaining selected legal concepts. Using the dataset we study the
effectiveness of transformer-based models pre-trained on large language corpora
to detect which of the sentences are useful. In light of models' predictions,
we analyze various linguistic properties of the explanatory sentences as well
as their relationship to the legal concept that needs to be explained. We show
that the transformer-based models are capable of learning surprisingly
sophisticated features and outperform the prior approaches to the task.
- Abstract(参考訳): 法的テキストは理解が難しい概念を常用する。
弁護士は、過去にどのように使われたのかを注意深く調べることで、そのような概念の意味を詳しく説明している。
有用な方法で特定の概念に言及するテキストスニペットを見つけるのは退屈で、時間がかかるため、コストがかかる。
判例決定から得られた26,959文のデータセットを組み立て,選択した法概念を説明するための有用性についてラベル付けした。
このデータセットを用いて,大言語コーパスで事前学習したトランスフォーマモデルの有効性について検討した。
モデルの予測に照らして,説明文の様々な言語的特性と,説明すべき法的概念との関係を解析した。
トランスフォーマーモデルでは,驚くほど高度な特徴を学習し,その課題に対する従来のアプローチを上回ることができることを示す。
関連論文リスト
- LawLLM: Law Large Language Model for the US Legal System [43.13850456765944]
我々は,米国法域に特化して設計されたマルチタスクモデルであるLawLLM(Law Large Language Model)を紹介する。
類似症例検索(SCR)、PCR(Precedent Case Recommendation)、LJP(Lawal Judgment Prediction)においてLawLLMが優れている
そこで本研究では,各タスクに対して,生の法定データをトレーニング可能な形式に変換する,カスタマイズされたデータ前処理手法を提案する。
論文 参考訳(メタデータ) (2024-07-27T21:51:30Z) - DELTA: Pre-train a Discriminative Encoder for Legal Case Retrieval via Structural Word Alignment [55.91429725404988]
判例検索のための識別モデルであるDELTAを紹介する。
我々は浅層デコーダを利用して情報ボトルネックを作り、表現能力の向上を目指しています。
本手法は, 判例検索において, 既存の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2024-03-27T10:40:14Z) - Natural Language Decompositions of Implicit Content Enable Better Text
Representations [56.85319224208865]
本稿では,暗黙的に伝達されたコンテンツを明示的に考慮したテキスト分析手法を提案する。
我々は大きな言語モデルを用いて、観察されたテキストと推論的に関係する命題の集合を生成する。
本研究は,NLPにおいて,文字のみではなく,観察された言語の背景にある意味をモデル化することが重要であることを示唆する。
論文 参考訳(メタデータ) (2023-05-23T23:45:20Z) - Can LLMs facilitate interpretation of pre-trained language models? [18.77022630961142]
本稿では,事前学習した言語モデルの微粒な解釈分析を可能にするための注釈として,大規模な言語モデルChatGPTを提案する。
文脈的表現に集約的階層的クラスタリングを適用することにより,事前学習言語モデル内の潜在概念を発見する。
以上の結果から,ChatGPTは人間のアノテーションよりも正確で意味的にリッチなアノテーションを生成することが明らかとなった。
論文 参考訳(メタデータ) (2023-05-22T18:03:13Z) - SAILER: Structure-aware Pre-trained Language Model for Legal Case
Retrieval [75.05173891207214]
判例検索は知的法体系において中心的な役割を果たす。
既存の言語モデルの多くは、異なる構造間の長距離依存関係を理解するのが難しい。
本稿では, LEgal ケース検索のための構造対応プレトランザクショナル言語モデルを提案する。
論文 参考訳(メタデータ) (2023-04-22T10:47:01Z) - Visual Comparison of Language Model Adaptation [55.92129223662381]
アダプタは、モデル適応のための軽量な代替品です。
本稿では,インタラクティブな視覚的説明手法について,いくつかの設計と代替案について論じる。
例えば、文脈0の埋め込みに従って言語脱バイアスタスクを訓練したアダプタが、新しいタイプのバイアスをもたらすことを示す。
論文 参考訳(メタデータ) (2022-08-17T09:25:28Z) - Lex Rosetta: Transfer of Predictive Models Across Languages,
Jurisdictions, and Legal Domains [40.58709137006848]
言語間で転送可能なGRU(Gated Recurrent Units)を用いたシーケンスラベリングモデルにおけるLanguage-Agnostic Sentence Representationsの使用を分析する。
トレーニング対象のコンテキストを超えて,モデルが一般化されることが分かりました。
複数のコンテキストでモデルをトレーニングすることで、ロバスト性が向上し、これまで見つからなかったコンテキストで評価する際の全体的なパフォーマンスが向上することがわかった。
論文 参考訳(メタデータ) (2021-12-15T04:53:13Z) - Explaining Latent Representations with a Corpus of Examples [72.50996504722293]
本稿では,サンプルベースの説明を自由に選択されたサンプル集合を参照して提供するユーザ中心の手法であるSimplExを提案する。
SimplExは、ポストホックな説明で潜伏空間に対するユーザの理解を改善するためにコーパスを使用する。
SimplExは,モデル表現を説明するコーパス内の関連パターンを強調表示することで,ユーザを力づけることを示す。
論文 参考訳(メタデータ) (2021-10-28T17:59:06Z) - Contrastive Explanations for Model Interpretability [77.92370750072831]
分類モデルの対照的説明を生成する手法を提案する。
本手法は潜在空間へのモデル表現の投影に基づいている。
本研究は,モデル決定のより正確できめ細かな解釈性を提供するためのラベルコントラスト的説明の能力に光を当てた。
論文 参考訳(メタデータ) (2021-03-02T00:36:45Z) - A Dataset for Statutory Reasoning in Tax Law Entailment and Question
Answering [37.66486350122862]
本稿では,法定推論における自然言語理解手法の性能について検討する。
我々は、法的ドメインのテキストコーパスとともにデータセットを導入する。
タスクを完全に解くように設計された手作りPrologベースのシステムと対比する。
論文 参考訳(メタデータ) (2020-05-11T16:54:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。