論文の概要: PENELOPIE: Enabling Open Information Extraction for the Greek Language
through Machine Translation
- arxiv url: http://arxiv.org/abs/2103.15075v1
- Date: Sun, 28 Mar 2021 08:01:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-31 10:55:02.247333
- Title: PENELOPIE: Enabling Open Information Extraction for the Greek Language
through Machine Translation
- Title(参考訳): PENELOPIE: 機械翻訳によるギリシア語のオープン情報抽出の実現
- Authors: Dimitris Papadopoulos, Nikolaos Papadakis and Nikolaos Matsatsinis
- Abstract要約: EACL 2021 SRWは,高リソース言語と低リソース言語のギャップを埋めることを目的とした方法論である。
我々は、トランスフォーマーアーキテクチャに基づいて、英語からギリシャ語、ギリシャ語への翻訳(nmt)モデルを構築した。
我々はこれらのNMTモデルを利用してギリシア語のテキストの英訳をNLPパイプラインの入力として作成し、一連の前処理と三重抽出タスクを適用した。
- 参考スコア(独自算出の注目度): 0.30938904602244344
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper we present our submission for the EACL 2021 SRW; a methodology
that aims at bridging the gap between high and low-resource languages in the
context of Open Information Extraction, showcasing it on the Greek language.
The goals of this paper are twofold: First, we build Neural Machine Translation
(NMT) models for English-to-Greek and Greek-to-English based on the Transformer
architecture. Second, we leverage these NMT models to produce English
translations of Greek text as input for our NLP pipeline, to which we apply a
series of pre-processing and triple extraction tasks. Finally, we
back-translate the extracted triples to Greek. We conduct an evaluation of both
our NMT and OIE methods on benchmark datasets and demonstrate that our approach
outperforms the current state-of-the-art for the Greek natural language.
- Abstract(参考訳): 本稿では,オープンインフォメーション抽出の文脈において,高リソース言語と低リソース言語のギャップを埋めることを目的とした方法論であるEACL 2021 SRWの提出について述べる。
第一に、トランスフォーマーアーキテクチャに基づいて、英語からギリシャ語、ギリシャ語への翻訳のためのニューラルマシン翻訳(NMT)モデルを構築する。
第二に、これらのNMTモデルを利用して、NLPパイプラインの入力としてギリシャ語のテキストの英語翻訳を作成し、一連の前処理と三重抽出タスクを適用します。
最後に、抽出したトリプルをギリシャ語にバックトランスレートします。
我々はNMT法とOIE法の両方をベンチマークデータセット上で評価し、我々のアプローチがギリシャの自然言語の最先端技術よりも優れていることを示す。
関連論文リスト
- TasTe: Teaching Large Language Models to Translate through Self-Reflection [82.83958470745381]
大規模言語モデル(LLM)は、様々な自然言語処理タスクにおいて顕著な性能を示した。
本稿では,自己回帰を通した翻訳を行うTasTeフレームワークを提案する。
WMT22ベンチマークにおける4つの言語方向の評価結果から,既存の手法と比較して,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2024-06-12T17:21:21Z) - A Novel Cartography-Based Curriculum Learning Method Applied on RoNLI: The First Romanian Natural Language Inference Corpus [71.77214818319054]
自然言語推論は自然言語理解のプロキシである。
ルーマニア語のNLIコーパスは公開されていない。
58Kの訓練文対からなるルーマニア初のNLIコーパス(RoNLI)を紹介する。
論文 参考訳(メタデータ) (2024-05-20T08:41:15Z) - GreekBART: The First Pretrained Greek Sequence-to-Sequence Model [13.429669368275318]
我々は,BARTベースアーキテクチャをベースとした最初のSeq2SeqモデルであるA GreekBARTを紹介し,大規模なギリシャ語コーパスを事前訓練する。
我々は,BART-random, Greek-BERT, XLM-Rを様々な識別課題で評価し,比較した。
論文 参考訳(メタデータ) (2023-04-03T10:48:51Z) - The Effect of Normalization for Bi-directional Amharic-English Neural
Machine Translation [53.907805815477126]
本稿では,比較的大規模なアムハラ語-英語並列文データセットを提案する。
我々は、既存のFacebook M2M100事前学習モデルを微調整することで、双方向のアムハラ語翻訳モデルを構築する。
その結果, 両方向のアンハラ語・英語機械翻訳の性能は, アンハラ語ホモホン文字の正規化により向上することが示唆された。
論文 参考訳(メタデータ) (2022-10-27T07:18:53Z) - DivEMT: Neural Machine Translation Post-Editing Effort Across
Typologically Diverse Languages [5.367993194110256]
DivEMTは、ニューラルネットワーク翻訳(NMT)に関する、タイプ的かつ多様なターゲット言語に対する初めての公開後研究である。
我々は、Google Translateとオープンソースの多言語モデルmBART50の2つの最先端NTTシステムの翻訳生産性への影響を評価する。
論文 参考訳(メタデータ) (2022-05-24T17:22:52Z) - Multi-granular Legal Topic Classification on Greek Legislation [4.09134848993518]
ギリシア語で書かれた法律文書を分類する作業について研究する。
ギリシャの法律文書分類のタスクがオープンな研究プロジェクトで検討されたのはこれが初めてである。
論文 参考訳(メタデータ) (2021-09-30T17:43:00Z) - Source and Target Bidirectional Knowledge Distillation for End-to-end
Speech Translation [88.78138830698173]
外部テキストベースNMTモデルからのシーケンスレベルの知識蒸留(SeqKD)に注目した。
E2E-STモデルを訓練し、パラフレーズ転写を1つのデコーダで補助タスクとして予測する。
論文 参考訳(メタデータ) (2021-04-13T19:00:51Z) - SJTU-NICT's Supervised and Unsupervised Neural Machine Translation
Systems for the WMT20 News Translation Task [111.91077204077817]
我々は英語・中国語・英語・ポーランド語・ドイツ語・アッパー・ソルビアンという3つの言語対の4つの翻訳指導に参加した。
言語ペアの異なる条件に基づいて、我々は多様なニューラルネットワーク翻訳(NMT)技術の実験を行った。
私たちの提出書では、主要なシステムは英語、中国語、ポーランド語、英語、ドイツ語から上セルビア語への翻訳の道順で第一位を獲得しました。
論文 参考訳(メタデータ) (2020-10-11T00:40:05Z) - GREEK-BERT: The Greeks visiting Sesame Street [25.406207104603027]
BERTのようなトランスフォーマーベースの言語モデルは、いくつかの下流自然言語処理タスクで最先端のパフォーマンスを達成した。
GREEK-BERTはモノリンガルなBERTベースの現代ギリシア語言語モデルである。
論文 参考訳(メタデータ) (2020-08-27T09:36:14Z) - Data and Representation for Turkish Natural Language Inference [6.135815931215188]
トルコ語における自然言語推論(NLI)に対する肯定的な反応を提供する。
2つの大きな英語NLIデータセットをトルコ語に翻訳し、専門家のチームが元のラベルへの翻訳品質と忠実さを検証した。
言語内埋め込みは必須であり,学習セットが大きい場所では形態的解析が避けられることがわかった。
論文 参考訳(メタデータ) (2020-04-30T17:12:52Z) - Learning Contextualized Sentence Representations for Document-Level
Neural Machine Translation [59.191079800436114]
文書レベルの機械翻訳は、文間の依存関係をソース文の翻訳に組み込む。
本稿では,ニューラルマシン翻訳(NMT)を訓練し,文のターゲット翻訳と周辺文の双方を予測することによって,文間の依存関係をモデル化するフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-30T03:38:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。