論文の概要: The Large Language Model GreekLegalRoBERTa
- arxiv url: http://arxiv.org/abs/2410.12852v1
- Date: Thu, 10 Oct 2024 20:54:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-20 09:11:00.553051
- Title: The Large Language Model GreekLegalRoBERTa
- Title(参考訳): 大規模言語モデル GreekLegalRoBERTa
- Authors: Vasileios Saketos, Despina-Athanasia Pantazi, Manolis Koubarakis,
- Abstract要約: 我々は,ギリシア語法と非法文に基づいて訓練された4つの大きな言語モデルである,ギリシャ語LegalRoBERTaの4つのバージョンを開発する。
我々のモデルは、ギリシャの法的文書を含む2つのタスクにおいて、ギリシャのLegalBERT、ギリシャのLegalBERT-v2、ギリシャのLegalBERTのパフォーマンスを上回ることを示す。
- 参考スコア(独自算出の注目度): 2.4797200957733576
- License:
- Abstract: We develop four versions of GreekLegalRoBERTa, which are four large language models trained on Greek legal and nonlegal text. We show that our models surpass the performance of GreekLegalBERT, Greek- LegalBERT-v2, and GreekBERT in two tasks involving Greek legal documents: named entity recognition and multi-class legal topic classification. We view our work as a contribution to the study of domain-specific NLP tasks in low-resource languages, like Greek, using modern NLP techniques and methodologies.
- Abstract(参考訳): 我々は,ギリシア語法と非法文に基づいて訓練された4つの大きな言語モデルである,ギリシャ語LegalRoBERTaの4つのバージョンを開発する。
我々のモデルは、ギリシャの法的文書を含む2つのタスクにおいて、ギリシャのLegalBERT、ギリシャのLegalBERT-v2、ギリシャのLegalBERTのパフォーマンスを上回っていることを示す。
我々は、現代のNLP技術と方法論を用いて、ギリシャ語のような低リソース言語におけるドメイン固有のNLPタスクの研究に貢献していると考えている。
関連論文リスト
- A Novel Cartography-Based Curriculum Learning Method Applied on RoNLI: The First Romanian Natural Language Inference Corpus [71.77214818319054]
自然言語推論は自然言語理解のプロキシである。
ルーマニア語のNLIコーパスは公開されていない。
58Kの訓練文対からなるルーマニア初のNLIコーパス(RoNLI)を紹介する。
論文 参考訳(メタデータ) (2024-05-20T08:41:15Z) - MYTE: Morphology-Driven Byte Encoding for Better and Fairer Multilingual Language Modeling [70.34758460372629]
多様な言語にまたがる一貫した大きさのセグメントで同一情報をエンコードする新しいパラダイムを導入する。
MYTEは99の言語すべてに対して短いエンコーディングを生成する。
これにより、多言語LMの性能が向上し、多言語間でのパープレキシティギャップが減少する。
論文 参考訳(メタデータ) (2024-03-15T21:21:11Z) - EUROPA: A Legal Multilingual Keyphrase Generation Dataset [10.365070468192704]
法律領域における多言語キーフレーズ生成のためのデータセットであるEUROPAを提案する。
欧州連合司法裁判所(EU)の法的判断から派生したもので、EUの公用語24言語全てに該当する。
論文 参考訳(メタデータ) (2024-03-01T03:30:38Z) - Exploring Large Language Models for Classical Philology [17.856304057963776]
我々は古代ギリシア語のための4つの言語モデルを作成し、2つの次元に沿って異なる。
補題化を含む形態的および構文的タスクに関する全てのモデルを評価する。
その結果、私たちのモデルはSoTAよりも大幅に改善されていることがわかった。
論文 参考訳(メタデータ) (2023-05-23T05:21:02Z) - Mitigating Data Imbalance and Representation Degeneration in
Multilingual Machine Translation [103.90963418039473]
Bi-ACLは、MNMTモデルの性能を向上させるために、ターゲット側モノリンガルデータとバイリンガル辞書のみを使用するフレームワークである。
Bi-ACLは、長い尾の言語でも、高リソースの言語でも、より効果的であることを示す。
論文 参考訳(メタデータ) (2023-05-22T07:31:08Z) - Simple Yet Effective Neural Ranking and Reranking Baselines for
Cross-Lingual Information Retrieval [50.882816288076725]
言語間情報検索は、ある言語で文書を検索し、別の言語でクエリーを検索するタスクである。
本研究では,多段階アーキテクチャを用いた言語横断検索のための異なるアプローチを体系化するための概念的枠組みを提案する。
我々は、ペルシア、ロシア、中国のTREC 2022 NeuCLIRトラックから収集したテストコレクションに対して、Anserini IRツールキットとPyserini IRツールキットに単純かつ効果的に再現可能なベースラインを実装した。
論文 参考訳(メタデータ) (2023-04-03T14:17:00Z) - GreekBART: The First Pretrained Greek Sequence-to-Sequence Model [13.429669368275318]
我々は,BARTベースアーキテクチャをベースとした最初のSeq2SeqモデルであるA GreekBARTを紹介し,大規模なギリシャ語コーパスを事前訓練する。
我々は,BART-random, Greek-BERT, XLM-Rを様々な識別課題で評価し,比較した。
論文 参考訳(メタデータ) (2023-04-03T10:48:51Z) - Multi-granular Legal Topic Classification on Greek Legislation [4.09134848993518]
ギリシア語で書かれた法律文書を分類する作業について研究する。
ギリシャの法律文書分類のタスクがオープンな研究プロジェクトで検討されたのはこれが初めてである。
論文 参考訳(メタデータ) (2021-09-30T17:43:00Z) - Lawformer: A Pre-trained Language Model for Chinese Legal Long Documents [56.40163943394202]
我々は,中国法定長文理解のためのLongformerベースの事前学習言語モデル,Lawformerをリリースする。
判決の予測,類似事例の検索,法的読解,法的質問の回答など,さまざまな法務上の課題について法務担当者を評価した。
論文 参考訳(メタデータ) (2021-05-09T09:39:25Z) - Learning Contextualised Cross-lingual Word Embeddings and Alignments for
Extremely Low-Resource Languages Using Parallel Corpora [63.5286019659504]
そこで本稿では,小さな並列コーパスに基づく文脈型言語間単語埋め込み学習手法を提案する。
本手法は,入力文の翻訳と再構成を同時に行うLSTMエンコーダデコーダモデルを用いて単語埋め込みを実現する。
論文 参考訳(メタデータ) (2020-10-27T22:24:01Z) - GREEK-BERT: The Greeks visiting Sesame Street [25.406207104603027]
BERTのようなトランスフォーマーベースの言語モデルは、いくつかの下流自然言語処理タスクで最先端のパフォーマンスを達成した。
GREEK-BERTはモノリンガルなBERTベースの現代ギリシア語言語モデルである。
論文 参考訳(メタデータ) (2020-08-27T09:36:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。