論文の概要: Lex Rosetta: Transfer of Predictive Models Across Languages,
Jurisdictions, and Legal Domains
- arxiv url: http://arxiv.org/abs/2112.07882v1
- Date: Wed, 15 Dec 2021 04:53:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-16 14:49:27.602214
- Title: Lex Rosetta: Transfer of Predictive Models Across Languages,
Jurisdictions, and Legal Domains
- Title(参考訳): Lex Rosetta: 言語, 判決, 法的ドメイン間の予測モデルの移行
- Authors: Jaromir Savelka, Hannes Westermann, Karim Benyekhlef, Charlotte S.
Alexander, Jayla C. Grant, David Restrepo Amariles, Rajaa El Hamdani,
S\'ebastien Mee\`us, Micha{\l} Araszkiewicz, Kevin D. Ashley, Alexandra
Ashley, Karl Branting, Mattia Falduti, Matthias Grabmair, Jakub Hara\v{s}ta,
Tereza Novotn\'a, Elizabeth Tippett, Shiwanni Johnson
- Abstract要約: 言語間で転送可能なGRU(Gated Recurrent Units)を用いたシーケンスラベリングモデルにおけるLanguage-Agnostic Sentence Representationsの使用を分析する。
トレーニング対象のコンテキストを超えて,モデルが一般化されることが分かりました。
複数のコンテキストでモデルをトレーニングすることで、ロバスト性が向上し、これまで見つからなかったコンテキストで評価する際の全体的なパフォーマンスが向上することがわかった。
- 参考スコア(独自算出の注目度): 40.58709137006848
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we examine the use of multi-lingual sentence embeddings to
transfer predictive models for functional segmentation of adjudicatory
decisions across jurisdictions, legal systems (common and civil law),
languages, and domains (i.e. contexts). Mechanisms for utilizing linguistic
resources outside of their original context have significant potential benefits
in AI & Law because differences between legal systems, languages, or traditions
often block wider adoption of research outcomes. We analyze the use of
Language-Agnostic Sentence Representations in sequence labeling models using
Gated Recurrent Units (GRUs) that are transferable across languages. To
investigate transfer between different contexts we developed an annotation
scheme for functional segmentation of adjudicatory decisions. We found that
models generalize beyond the contexts on which they were trained (e.g., a model
trained on administrative decisions from the US can be applied to criminal law
decisions from Italy). Further, we found that training the models on multiple
contexts increases robustness and improves overall performance when evaluating
on previously unseen contexts. Finally, we found that pooling the training data
from all the contexts enhances the models' in-context performance.
- Abstract(参考訳): 本稿では,司法管轄区域,法体系(一般法・民法),言語,ドメイン(文脈)をまたいだ判断機能分節化のための予測モデルとして,多言語文埋め込みの利用について検討する。
元の文脈以外で言語資源を利用するメカニズムは、法体系、言語、伝統の違いが研究成果の広範な採用を妨げるため、AI & Lawにおいて潜在的に有益である。
言語間で転送可能なGRU(Gated Recurrent Units)を用いたシーケンスラベリングモデルにおけるLanguage-Agnostic Sentence Representationsの使用を分析する。
異なる文脈間での移動を調査するため,適応的決定の関数的セグメンテーションのためのアノテーションスキームを開発した。
モデルは、訓練された文脈を超えて一般化することを発見した(例えば、米国からの行政判断に基づいて訓練されたモデルは、イタリアの刑事法決定に適用できる)。
さらに,複数のコンテキストでモデルをトレーニングすることで頑健性が向上し,それまで認識されていなかったコンテキストで評価した場合の全体的なパフォーマンスが向上することが分かった。
最後に、すべてのコンテキストからトレーニングデータをプールすることで、モデルのコンテキスト内パフォーマンスが向上することがわかった。
関連論文リスト
- Legal Evalutions and Challenges of Large Language Models [42.51294752406578]
我々は,OPENAI o1モデルを事例研究として,法律規定の適用における大規模モデルの性能評価に利用した。
我々は、オープンソース、クローズドソース、および法律ドメインのために特別に訓練された法律固有のモデルを含む、最先端のLLMを比較します。
論文 参考訳(メタデータ) (2024-11-15T12:23:12Z) - A Multilingual Sentiment Lexicon for Low-Resource Language Translation using Large Languages Models and Explainable AI [0.0]
南アフリカとDRCは、ズールー語、セペディ語、アフリカーンス語、フランス語、英語、ツィルバ語などの言語と共に複雑な言語景観を呈している。
この研究はフランス語とツィルバ語用に設計された多言語辞書を開発し、英語、アフリカーンス語、セペディ語、ズールー語への翻訳を含むように拡張された。
総合的なテストコーパスは、感情を予測するためにトレーニングされた機械学習モデルを使用して、翻訳と感情分析タスクをサポートするために作成される。
論文 参考訳(メタデータ) (2024-11-06T23:41:18Z) - Natural Language Processing for the Legal Domain: A Survey of Tasks, Datasets, Models, and Challenges [4.548047308860141]
自然言語処理は、法律専門家や法務担当者の法務分野における活動の仕方に革命をもたらしている。
本調査では,手動フィルタリング後の127項目を最終選択として,システムレビューとメタアナライズフレームワークの優先報告項目に従って,148の研究をレビューした。
法律分野における自然言語処理に関する基礎概念を探求する。
論文 参考訳(メタデータ) (2024-10-25T01:17:02Z) - Learning Phonotactics from Linguistic Informants [54.086544221761486]
本モデルでは,情報理論的なポリシーの1つに従って,データポイントを反復的に選択または合成する。
提案モデルでは,情報提供者を問う項目の選択に使用する情報理論のポリシーが,完全教師付きアプローチに匹敵する,あるいはそれ以上の効率性が得られることがわかった。
論文 参考訳(メタデータ) (2024-05-08T00:18:56Z) - The Power of Question Translation Training in Multilingual Reasoning: Broadened Scope and Deepened Insights [108.40766216456413]
大規模言語モデルの英語と非英語のパフォーマンスのギャップを埋めるための質問アライメントフレームワークを提案する。
実験結果から、さまざまな推論シナリオ、モデルファミリー、サイズにわたって、多言語のパフォーマンスを向上できることが示された。
我々は、表現空間、生成された応答とデータスケールを分析し、質問翻訳訓練がLLM内の言語アライメントをどのように強化するかを明らかにする。
論文 参考訳(メタデータ) (2024-05-02T14:49:50Z) - Precedent-Enhanced Legal Judgment Prediction with LLM and Domain-Model
Collaboration [52.57055162778548]
法的判断予測(LJP)は、法律AIにおいてますます重要な課題となっている。
先行は、同様の事実を持つ以前の訴訟であり、国家法制度におけるその後の事件の判断の基礎となっている。
近年のディープラーニングの進歩により、LJPタスクの解決に様々なテクニックが使えるようになった。
論文 参考訳(メタデータ) (2023-10-13T16:47:20Z) - Customizing Contextualized Language Models forLegal Document Reviews [0.22940141855172028]
一般ドメインコーパスに歪んだ異なる言語モデルがどのように、法的文書レビュータスクに最適にカスタマイズできるかを示す。
本研究は,タスクのパフォーマンスと実践的考察の効率を比較検討する。
論文 参考訳(メタデータ) (2021-02-10T22:14:15Z) - Cross-lingual Spoken Language Understanding with Regularized
Representation Alignment [71.53159402053392]
外部リソースを使わずに言語間で単語レベルの表現と文レベルの表現を整列する正規化手法を提案する。
言語間言語理解タスクの実験により、我々のモデルは、数ショットとゼロショットの両方のシナリオにおいて、最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2020-09-30T08:56:53Z) - A Dataset for Statutory Reasoning in Tax Law Entailment and Question
Answering [37.66486350122862]
本稿では,法定推論における自然言語理解手法の性能について検討する。
我々は、法的ドメインのテキストコーパスとともにデータセットを導入する。
タスクを完全に解くように設計された手作りPrologベースのシステムと対比する。
論文 参考訳(メタデータ) (2020-05-11T16:54:42Z) - XCOPA: A Multilingual Dataset for Causal Commonsense Reasoning [68.57658225995966]
XCOPA (Cross-lingual Choice of Plausible Alternatives) は11言語における因果コモンセンス推論のための多言語データセットである。
提案手法は,翻訳に基づく転送と比較して,現在の手法の性能が低下していることを明らかにする。
論文 参考訳(メタデータ) (2020-05-01T12:22:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。