論文の概要: GPTs and Language Barrier: A Cross-Lingual Legal QA Examination
- arxiv url: http://arxiv.org/abs/2403.18098v1
- Date: Tue, 26 Mar 2024 20:47:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-28 21:05:06.569252
- Title: GPTs and Language Barrier: A Cross-Lingual Legal QA Examination
- Title(参考訳): GPTと言語障壁: 言語横断的法的QA試験
- Authors: Ha-Thanh Nguyen, Hiroaki Yamada, Ken Satoh,
- Abstract要約: 我々は,COLIEE Task 4データセットを用いた言語間法的質問応答システム(QA)における生成事前学習トランスフォーマー(GPT)の適用について検討する。
COLIEEタスク4において、文脈として機能する声明と関連する法的記事のセットが与えられた場合、その声明が法的に有効であるかどうかを決定することが目的である。
英語と日本語のプロンプトとデータの4つの組み合わせをベンチマークすることにより、多言語法的QAシナリオにおけるGPTのパフォーマンスに関する貴重な洞察を提供する。
- 参考スコア(独自算出の注目度): 5.253214457141011
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we explore the application of Generative Pre-trained Transformers (GPTs) in cross-lingual legal Question-Answering (QA) systems using the COLIEE Task 4 dataset. In the COLIEE Task 4, given a statement and a set of related legal articles that serve as context, the objective is to determine whether the statement is legally valid, i.e., if it can be inferred from the provided contextual articles or not, which is also known as an entailment task. By benchmarking four different combinations of English and Japanese prompts and data, we provide valuable insights into GPTs' performance in multilingual legal QA scenarios, contributing to the development of more efficient and accurate cross-lingual QA solutions in the legal domain.
- Abstract(参考訳): 本稿では,COLIEE Task 4 データセットを用いた言語間法的質問応答(QA)システムにおける生成事前学習変換(GPT)の適用について検討する。
COLIEEタスク4では、文脈として機能するステートメントと関連する法的記事のセットが与えられ、そのステートメントが法的に有効であるかどうか、すなわち、提供されたコンテクストの記事から推測できるかどうかを判断することが目的である。
英語と日本語のプロンプトとデータの4つの組み合わせをベンチマークすることにより、多言語法的QAシナリオにおけるGPTのパフォーマンスに関する貴重な洞察を提供し、法領域におけるより効率的で正確な言語間QAソリューションの開発に寄与する。
関連論文リスト
- A Cross-Lingual Statutory Article Retrieval Dataset for Taiwan Legal Studies [4.511440076037968]
本稿では,多言語設定における法的情報検索を強化するために,言語間法定項目検索(SAR)データセットを提案する。
我々のデータセットは、台湾の民事・刑事・行政法を網羅し、対応する中国語版と関連する法令とを合わせた、英語による音声言語形式の法的問合せを特徴としている。
論文 参考訳(メタデータ) (2024-10-15T09:53:40Z) - Developing a Pragmatic Benchmark for Assessing Korean Legal Language Understanding in Large Language Models [7.797885529152412]
大規模言語モデル (LLM) は法域において顕著な性能を示した。
しかし、その効力は英語以外の言語における非標準化されたタスクやタスクに限られている。
このことは、適用前に各法体系内でのLCMの慎重な評価の必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2024-10-11T11:41:02Z) - InternLM-Law: An Open Source Chinese Legal Large Language Model [72.2589401309848]
InternLM-Lawは、中国法に関する様々な法的クエリに対処するための特殊なLLMである。
われわれは、中国法域に100万以上のクエリを含むデータセットを慎重に構築する。
InternLM-LawはLawBench上で最高の平均性能を達成し、20サブタスク中13サブタスクでGPT-4を含む最先端モデルを上回っている。
論文 参考訳(メタデータ) (2024-06-21T06:19:03Z) - Team UTSA-NLP at SemEval 2024 Task 5: Prompt Ensembling for Argument Reasoning in Civil Procedures with GPT4 [7.613758211231583]
本稿では,民事訴訟における民事訴訟処理課題であるSemEval Task 5について紹介する。
本システムでは,GPT4を用いて法的議論を推理するプロンプトベースソリューションを提案する。
システム全体としては、検証データセットの.8095のマクロF1と、最終テストセットの.7315(21チーム中5番目)が生成される。
論文 参考訳(メタデータ) (2024-04-02T13:55:05Z) - NeCo@ALQAC 2023: Legal Domain Knowledge Acquisition for Low-Resource
Languages through Data Enrichment [2.441072488254427]
本稿では,ベトナムのテキスト処理タスクに対するNeCo Teamのソリューションを,ALQAC 2023(Automated Legal Question Answering Competition 2023)で紹介する。
法的な文書検索タスクでは,類似度ランキングと深層学習モデルを組み合わせた手法が採用されているが,第2の課題では,異なる質問タイプを扱うための適応的手法が提案されている。
提案手法は, 競争の両課題において, 法的分野における質問応答システムの潜在的メリットと有効性を示す, 卓越した結果を達成している。
論文 参考訳(メタデータ) (2023-09-11T14:43:45Z) - SemEval 2023 Task 6: LegalEval - Understanding Legal Texts [2.172613863157655]
法律文書の処理と自動理解のためのNLPベースの技術を開発する必要がある。
Task-A (Rhetorical Roles Labeling) は、法的文書を意味的に一貫性のある単位に自動的に構造化することを目的としており、Task-B (Legal Named Entity Recognition) は、法的文書内の関連エンティティを識別する、Task-C (Court Judgement Prediction with Explanation) は、訴訟の結果を自動的に予測する可能性を探る。
それぞれのサブタスクにおいて、提案されたシステムはベースラインよりも優れているが、多くのスコープがある。
論文 参考訳(メタデータ) (2023-04-19T10:28:32Z) - Understanding Translationese in Cross-Lingual Summarization [106.69566000567598]
言語間要約(MS)は、異なる対象言語で簡潔な要約を生成することを目的としている。
大規模なCLSデータを集めるために、既存のデータセットは通常、それらの生成に翻訳を伴います。
本稿では、まず、CLSデータセット構築の異なるアプローチが、異なるレベルの翻訳に結びつくことを確認する。
論文 参考訳(メタデータ) (2022-12-14T13:41:49Z) - Multi2WOZ: A Robust Multilingual Dataset and Conversational Pretraining
for Task-Oriented Dialog [67.20796950016735]
Multi2WOZデータセットは、中国語、ドイツ語、アラビア語、ロシア語の4つの言語にまたがる。
本稿では,任意の下流TODタスクに対する言語間移動を容易にすることを目的とした,事前学習言語モデル(PrLM)の多言語会話特化のための新しいフレームワークを提案する。
実験の結果,目標言語における(I)会話の特殊化と,(II)具体的なTODタスクのための少数ショット転送の組み合わせが,ほとんどの場合,最高の性能を示すことがわかった。
論文 参考訳(メタデータ) (2022-05-20T18:35:38Z) - EVI: Multilingual Spoken Dialogue Tasks and Dataset for Knowledge-Based
Enrolment, Verification, and Identification [49.77911492230467]
3つの認証タスクとその評価プロトコルを形式化する。
EVIは、英語、ポーランド語、フランス語で5,506の対話が可能な、難解な多言語データセットである。
論文 参考訳(メタデータ) (2022-04-28T13:39:24Z) - Evaluating Multilingual Text Encoders for Unsupervised Cross-Lingual
Retrieval [51.60862829942932]
本稿では,言語間文書・文検索タスクにおける最先端多言語エンコーダの適合性に着目した体系的実証研究を行う。
文レベルのCLIRでは、最先端のパフォーマンスが達成できることを実証する。
しかし、ピーク性能は、汎用の多言語テキストエンコーダをオフ・ザ・シェルフで使うのではなく、文の理解タスクにさらに特化したバリエーションに依存している。
論文 参考訳(メタデータ) (2021-01-21T00:15:38Z) - XTREME: A Massively Multilingual Multi-task Benchmark for Evaluating
Cross-lingual Generalization [128.37244072182506]
言語間TRansfer Evaluation of Multilinguals XTREMEは、40言語および9タスクにわたる多言語表現の言語間一般化能力を評価するためのベンチマークである。
我々は、英語でテストされたモデルは、多くのタスクにおいて人間のパフォーマンスに達するが、言語間変換されたモデルの性能にはまだ大きなギャップがあることを示した。
論文 参考訳(メタデータ) (2020-03-24T19:09:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。