論文の概要: Lex Rosetta: Transfer of Predictive Models Across Languages,
Jurisdictions, and Legal Domains
- arxiv url: http://arxiv.org/abs/2112.07882v1
- Date: Wed, 15 Dec 2021 04:53:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-16 14:49:27.602214
- Title: Lex Rosetta: Transfer of Predictive Models Across Languages,
Jurisdictions, and Legal Domains
- Title(参考訳): Lex Rosetta: 言語, 判決, 法的ドメイン間の予測モデルの移行
- Authors: Jaromir Savelka, Hannes Westermann, Karim Benyekhlef, Charlotte S.
Alexander, Jayla C. Grant, David Restrepo Amariles, Rajaa El Hamdani,
S\'ebastien Mee\`us, Micha{\l} Araszkiewicz, Kevin D. Ashley, Alexandra
Ashley, Karl Branting, Mattia Falduti, Matthias Grabmair, Jakub Hara\v{s}ta,
Tereza Novotn\'a, Elizabeth Tippett, Shiwanni Johnson
- Abstract要約: 言語間で転送可能なGRU(Gated Recurrent Units)を用いたシーケンスラベリングモデルにおけるLanguage-Agnostic Sentence Representationsの使用を分析する。
トレーニング対象のコンテキストを超えて,モデルが一般化されることが分かりました。
複数のコンテキストでモデルをトレーニングすることで、ロバスト性が向上し、これまで見つからなかったコンテキストで評価する際の全体的なパフォーマンスが向上することがわかった。
- 参考スコア(独自算出の注目度): 40.58709137006848
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we examine the use of multi-lingual sentence embeddings to
transfer predictive models for functional segmentation of adjudicatory
decisions across jurisdictions, legal systems (common and civil law),
languages, and domains (i.e. contexts). Mechanisms for utilizing linguistic
resources outside of their original context have significant potential benefits
in AI & Law because differences between legal systems, languages, or traditions
often block wider adoption of research outcomes. We analyze the use of
Language-Agnostic Sentence Representations in sequence labeling models using
Gated Recurrent Units (GRUs) that are transferable across languages. To
investigate transfer between different contexts we developed an annotation
scheme for functional segmentation of adjudicatory decisions. We found that
models generalize beyond the contexts on which they were trained (e.g., a model
trained on administrative decisions from the US can be applied to criminal law
decisions from Italy). Further, we found that training the models on multiple
contexts increases robustness and improves overall performance when evaluating
on previously unseen contexts. Finally, we found that pooling the training data
from all the contexts enhances the models' in-context performance.
- Abstract(参考訳): 本稿では,司法管轄区域,法体系(一般法・民法),言語,ドメイン(文脈)をまたいだ判断機能分節化のための予測モデルとして,多言語文埋め込みの利用について検討する。
元の文脈以外で言語資源を利用するメカニズムは、法体系、言語、伝統の違いが研究成果の広範な採用を妨げるため、AI & Lawにおいて潜在的に有益である。
言語間で転送可能なGRU(Gated Recurrent Units)を用いたシーケンスラベリングモデルにおけるLanguage-Agnostic Sentence Representationsの使用を分析する。
異なる文脈間での移動を調査するため,適応的決定の関数的セグメンテーションのためのアノテーションスキームを開発した。
モデルは、訓練された文脈を超えて一般化することを発見した(例えば、米国からの行政判断に基づいて訓練されたモデルは、イタリアの刑事法決定に適用できる)。
さらに,複数のコンテキストでモデルをトレーニングすることで頑健性が向上し,それまで認識されていなかったコンテキストで評価した場合の全体的なパフォーマンスが向上することが分かった。
最後に、すべてのコンテキストからトレーニングデータをプールすることで、モデルのコンテキスト内パフォーマンスが向上することがわかった。
関連論文リスト
- Do Language Models Learn about Legal Entity Types during Pretraining? [4.604003661048267]
Llama2は特定のエンティティでよく機能し、最適化されたプロンプトテンプレートで大幅に改善する可能性を示す。
Llama2は、BERTベースのアーキテクチャでは欠点の少ない構文的ヒントをしばしば見落としているように見える。
論文 参考訳(メタデータ) (2023-10-19T18:47:21Z) - Precedent-Enhanced Legal Judgment Prediction with LLM and Domain-Model
Collaboration [52.57055162778548]
法的判断予測(LJP)は、法律AIにおいてますます重要な課題となっている。
先行は、同様の事実を持つ以前の訴訟であり、国家法制度におけるその後の事件の判断の基礎となっている。
近年のディープラーニングの進歩により、LJPタスクの解決に様々なテクニックが使えるようになった。
論文 参考訳(メタデータ) (2023-10-13T16:47:20Z) - Discovering Explanatory Sentences in Legal Case Decisions Using
Pre-trained Language Models [0.7614628596146599]
法的テキストは理解が難しい概念を常用する。
弁護士は、過去にどのように使われてきたのかを注意深く調べることで、そのような概念の意味を詳しく説明している。
特定の概念に便利な方法で言及するテキストスニペットを見つけるのは退屈で、時間がかかるため、コストがかかる。
論文 参考訳(メタデータ) (2021-12-14T04:56:39Z) - LexGLUE: A Benchmark Dataset for Legal Language Understanding in English [15.026117429782996]
我々は,多種多様なNLUタスクのモデル性能を評価するためのデータセットの集合であるLexGLUEベンチマークを紹介する。
また、複数の汎用的および法的指向モデルの評価と分析を行い、後者が複数のタスクにまたがるパフォーマンス改善を一貫して提供することを示した。
論文 参考訳(メタデータ) (2021-10-03T10:50:51Z) - Customizing Contextualized Language Models forLegal Document Reviews [0.22940141855172028]
一般ドメインコーパスに歪んだ異なる言語モデルがどのように、法的文書レビュータスクに最適にカスタマイズできるかを示す。
本研究は,タスクのパフォーマンスと実践的考察の効率を比較検討する。
論文 参考訳(メタデータ) (2021-02-10T22:14:15Z) - Unsupervised Domain Adaptation of a Pretrained Cross-Lingual Language
Model [58.27176041092891]
最近の研究は、大規模未ラベルテキストに対する言語間言語モデルの事前学習が、大幅な性能向上をもたらすことを示唆している。
本稿では,絡み合った事前学習した言語間表現からドメイン固有の特徴を自動的に抽出する,教師なし特徴分解手法を提案する。
提案モデルでは、相互情報推定を利用して、言語間モデルによって計算された表現をドメイン不変部分とドメイン固有部分に分解する。
論文 参考訳(メタデータ) (2020-11-23T16:00:42Z) - Cross-lingual Spoken Language Understanding with Regularized
Representation Alignment [71.53159402053392]
外部リソースを使わずに言語間で単語レベルの表現と文レベルの表現を整列する正規化手法を提案する。
言語間言語理解タスクの実験により、我々のモデルは、数ショットとゼロショットの両方のシナリオにおいて、最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2020-09-30T08:56:53Z) - Learning Universal Representations from Word to Sentence [89.82415322763475]
この研究は普遍的な表現学習、すなわち一様ベクトル空間における言語単位の異なるレベルへの埋め込みを導入し、探求する。
本稿では, 単語, 句, 文の観点から, 類似したデータセットを構築するためのアプローチを提案する。
適切なトレーニング設定を組み込んだよく訓練されたトランスフォーマーモデルが、効果的に普遍的な表現が得られることを実証的に検証する。
論文 参考訳(メタデータ) (2020-09-10T03:53:18Z) - A Dataset for Statutory Reasoning in Tax Law Entailment and Question
Answering [37.66486350122862]
本稿では,法定推論における自然言語理解手法の性能について検討する。
我々は、法的ドメインのテキストコーパスとともにデータセットを導入する。
タスクを完全に解くように設計された手作りPrologベースのシステムと対比する。
論文 参考訳(メタデータ) (2020-05-11T16:54:42Z) - XCOPA: A Multilingual Dataset for Causal Commonsense Reasoning [68.57658225995966]
XCOPA (Cross-lingual Choice of Plausible Alternatives) は11言語における因果コモンセンス推論のための多言語データセットである。
提案手法は,翻訳に基づく転送と比較して,現在の手法の性能が低下していることを明らかにする。
論文 参考訳(メタデータ) (2020-05-01T12:22:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。