論文の概要: Multi-granular Legal Topic Classification on Greek Legislation
- arxiv url: http://arxiv.org/abs/2109.15298v1
- Date: Thu, 30 Sep 2021 17:43:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-01 16:12:35.171766
- Title: Multi-granular Legal Topic Classification on Greek Legislation
- Title(参考訳): ギリシャ法に関する多元的法的話題分類
- Authors: Christos Papaloukas, Ilias Chalkidis, Konstantinos Athinaios,
Despina-Athanasia Pantazi, Manolis Koubarakis
- Abstract要約: ギリシア語で書かれた法律文書を分類する作業について研究する。
ギリシャの法律文書分類のタスクがオープンな研究プロジェクトで検討されたのはこれが初めてである。
- 参考スコア(独自算出の注目度): 4.09134848993518
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we study the task of classifying legal texts written in the
Greek language. We introduce and make publicly available a novel dataset based
on Greek legislation, consisting of more than 47 thousand official, categorized
Greek legislation resources. We experiment with this dataset and evaluate a
battery of advanced methods and classifiers, ranging from traditional machine
learning and RNN-based methods to state-of-the-art Transformer-based methods.
We show that recurrent architectures with domain-specific word embeddings offer
improved overall performance while being competitive even to transformer-based
models. Finally, we show that cutting-edge multilingual and monolingual
transformer-based models brawl on the top of the classifiers' ranking, making
us question the necessity of training monolingual transfer learning models as a
rule of thumb. To the best of our knowledge, this is the first time the task of
Greek legal text classification is considered in an open research project,
while also Greek is a language with very limited NLP resources in general.
- Abstract(参考訳): 本研究では,ギリシア語で書かれた法文を分類する作業について検討する。
我々は、ギリシャの法律に基づく新しいデータセットを紹介し、公開する。4万以上の公的機関からなる、ギリシャの立法資源を分類する。
このデータセットを実験し、従来の機械学習やRNNベースの手法から最先端のTransformerベースの手法まで、高度な手法と分類器の電池評価を行う。
ドメイン固有の単語埋め込みを持つ繰り返しアーキテクチャは、トランスフォーマーベースのモデルに対してさえ競合しながら、全体的なパフォーマンスを改善していることを示す。
最後に,多言語・単言語トランスフォーマーを用いたモデルが分類器のランキングの上位に現れることを示し,母語規則として単言語トランスフォーメーション学習モデルの訓練の必要性を疑問視する。
我々の知る限りでは、ギリシャ語法テキスト分類のタスクがオープンな研究プロジェクトで検討されたのはこれが初めてであり、ギリシャ語は一般に非常に限られたNLP資源を持つ言語でもある。
関連論文リスト
- The Large Language Model GreekLegalRoBERTa [2.4797200957733576]
我々は,ギリシア語法と非法文に基づいて訓練された4つの大きな言語モデルである,ギリシャ語LegalRoBERTaの4つのバージョンを開発する。
我々のモデルは、ギリシャの法的文書を含む2つのタスクにおいて、ギリシャのLegalBERT、ギリシャのLegalBERT-v2、ギリシャのLegalBERTのパフォーマンスを上回ることを示す。
論文 参考訳(メタデータ) (2024-10-10T20:54:39Z) - A Novel Cartography-Based Curriculum Learning Method Applied on RoNLI: The First Romanian Natural Language Inference Corpus [71.77214818319054]
自然言語推論は自然言語理解のプロキシである。
ルーマニア語のNLIコーパスは公開されていない。
58Kの訓練文対からなるルーマニア初のNLIコーパス(RoNLI)を紹介する。
論文 参考訳(メタデータ) (2024-05-20T08:41:15Z) - GreekT5: A Series of Greek Sequence-to-Sequence Models for News
Summarization [0.0]
本稿では,ギリシャのニュース記事を対象とした新しいTSモデルを提案する。
提案したモデルは、ギリシャのBARTに対して同じデータセットで徹底的に評価された。
評価結果から, 提案したモデルのほとんどは, 様々な評価指標において, ギリシャ語BARTを著しく上回っていることが明らかとなった。
論文 参考訳(メタデータ) (2023-11-13T21:33:12Z) - OYXOY: A Modern NLP Test Suite for Modern Greek [2.059776592203642]
本稿では,ギリシャ語NLPのための言語的動機付け評価スイートの開発に向けた基礎的なステップとして機能する。
本稿では,自然言語推論,単語感覚の曖昧さ,メタファ検出を対象とする4つの専門家による評価タスクを紹介する。
既存のタスクの言語による複製よりも、より広いリソースと評価コミュニティに共鳴する2つのイノベーションに貢献する。
論文 参考訳(メタデータ) (2023-09-13T15:00:56Z) - T3L: Translate-and-Test Transfer Learning for Cross-Lingual Text
Classification [50.675552118811]
言語間テキスト分類は通常、様々な言語で事前訓練された大規模多言語言語モデル(LM)に基づいて構築される。
本稿では,古典的な「翻訳とテスト」パイプラインを再考し,翻訳と分類の段階を適切に分離することを提案する。
論文 参考訳(メタデータ) (2023-06-08T07:33:22Z) - GreekBART: The First Pretrained Greek Sequence-to-Sequence Model [13.429669368275318]
我々は,BARTベースアーキテクチャをベースとした最初のSeq2SeqモデルであるA GreekBARTを紹介し,大規模なギリシャ語コーパスを事前訓練する。
我々は,BART-random, Greek-BERT, XLM-Rを様々な識別課題で評価し,比較した。
論文 参考訳(メタデータ) (2023-04-03T10:48:51Z) - Beyond Contrastive Learning: A Variational Generative Model for
Multilingual Retrieval [109.62363167257664]
本稿では,多言語テキスト埋め込み学習のための生成モデルを提案する。
我々のモデルは、$N$言語で並列データを操作する。
本手法は, 意味的類似性, ビットクストマイニング, 言語間質問検索などを含む一連のタスクに対して評価を行う。
論文 参考訳(メタデータ) (2022-12-21T02:41:40Z) - Detecting Text Formality: A Study of Text Classification Approaches [78.11745751651708]
本研究は,統計的,ニューラルベース,トランスフォーマーベースの機械学習手法に基づく形式性検出手法の体系的研究を初めて行う。
単言語,多言語,言語横断の3種類の実験を行った。
本研究は,モノリンガルおよび多言語形式分類タスクのためのトランスフォーマーベースモデルに対するChar BiLSTMモデルの克服を示す。
論文 参考訳(メタデータ) (2022-04-19T16:23:07Z) - PENELOPIE: Enabling Open Information Extraction for the Greek Language
through Machine Translation [0.30938904602244344]
EACL 2021 SRWは,高リソース言語と低リソース言語のギャップを埋めることを目的とした方法論である。
我々は、トランスフォーマーアーキテクチャに基づいて、英語からギリシャ語、ギリシャ語への翻訳(nmt)モデルを構築した。
我々はこれらのNMTモデルを利用してギリシア語のテキストの英訳をNLPパイプラインの入力として作成し、一連の前処理と三重抽出タスクを適用した。
論文 参考訳(メタデータ) (2021-03-28T08:01:58Z) - Lexical semantic change for Ancient Greek and Latin [61.69697586178796]
歴史的文脈における単語の正しい意味の連想は、ダイアクロニック研究の中心的な課題である。
我々は、動的ベイズ混合モデルに基づくセマンティック変化に対する最近の計算的アプローチに基づいて構築する。
本研究では,動的ベイズ混合モデルと最先端埋め込みモデルとのセマンティックな変化を系統的に比較する。
論文 参考訳(メタデータ) (2021-01-22T12:04:08Z) - Exploring the Limits of Transfer Learning with a Unified Text-to-Text
Transformer [64.22926988297685]
下流タスクで微調整される前に、まずデータリッチタスクでモデルが事前訓練されるトランスファーラーニングは、自然言語処理(NLP)において強力な手法として登場した。
本稿では,すべてのテキストベースの言語問題をテキスト・トゥ・テキスト・フォーマットに変換する統一フレームワークにより,NLPのためのトランスファー学習手法を導入する状況について検討する。
論文 参考訳(メタデータ) (2019-10-23T17:37:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。