論文の概要: Automatically constructing Wordnet synsets
- arxiv url: http://arxiv.org/abs/2208.03870v1
- Date: Mon, 8 Aug 2022 02:02:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-09 13:01:18.425427
- Title: Automatically constructing Wordnet synsets
- Title(参考訳): Wordnet構文の自動構築
- Authors: Khang Nhut Lam, Feras Al Tarouti and Jugal Kalita
- Abstract要約: 本稿では,資源に富む言語と資源に乏しい言語に対して,Wordnetシンセセットを生成する手法を提案する。
提案アルゴリズムは,既存のWordnetの構文を対象言語Tに翻訳し,翻訳候補にランク付け手法を適用してTで最良の翻訳を見つける。
- 参考スコア(独自算出の注目度): 2.363388546004777
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Manually constructing a Wordnet is a difficult task, needing years of
experts' time. As a first step to automatically construct full Wordnets, we
propose approaches to generate Wordnet synsets for languages both resource-rich
and resource-poor, using publicly available Wordnets, a machine translator
and/or a single bilingual dictionary. Our algorithms translate synsets of
existing Wordnets to a target language T, then apply a ranking method on the
translation candidates to find best translations in T. Our approaches are
applicable to any language which has at least one existing bilingual dictionary
translating from English to it.
- Abstract(参考訳): Wordnetを手動で構築することは難しい作業であり、長年の専門家の時間を必要とする。
完全なWordnetを自動構築する最初のステップとして、利用可能なWordnet、機械翻訳装置、および/または単一のバイリンガル辞書を用いて、リソース豊かでリソース不足な言語のためのWordnetシンセセットを生成するアプローチを提案する。
我々のアルゴリズムは、既存のWordnetの構文を対象言語Tに翻訳し、翻訳候補にランキング法を適用して、Tで最高の翻訳を見つける。
関連論文リスト
- Wav2Gloss: Generating Interlinear Glossed Text from Speech [78.64412090339044]
音声から4つの言語アノテーションを自動抽出するタスクであるWav2Glossを提案する。
音声からのインターリニア・グロッシド・テキスト・ジェネレーションの今後の研究の基盤となる基盤となるものについて述べる。
論文 参考訳(メタデータ) (2024-03-19T21:45:29Z) - Media of Langue: The Interface for Exploring Word Translation Network/Space [0.0]
我々は、これらの相互翻訳の連鎖によって形成される巨大なネットワークを、ワード翻訳ネットワーク(Word Translation Network)として発見する。
本稿では,このネットワークを探索するための新しいインタフェースであるMedia of Langueを提案する。
論文 参考訳(メタデータ) (2023-08-25T03:54:20Z) - CompoundPiece: Evaluating and Improving Decompounding Performance of
Language Models [77.45934004406283]
複合語を構成語に分割する作業である「分解」を体系的に研究する。
We introduced a dataset of 255k compound and non-compound words across 56 various languages obtained from Wiktionary。
分割のための専用モデルを訓練するための新しい手法を導入する。
論文 参考訳(メタデータ) (2023-05-23T16:32:27Z) - Advancing Multilingual Pre-training: TRIP Triangular Document-level
Pre-training for Multilingual Language Models [107.83158521848372]
我々は,従来のモノリンガルおよびバイリンガルの目的を,グラフト法と呼ばれる新しい手法で三言語的目的に加速する分野において,最初のテキストbfTriangular Document-level textbfPre-training(textbfTRIP)を提案する。
TRIPは、3つの多言語文書レベルの機械翻訳ベンチマークと1つの言語間抽象的な要約ベンチマークで、最大3.11d-BLEU点と8.9ROUGE-L点の一貫性のある改善を含む、強力なSOTAスコアを達成している。
論文 参考訳(メタデータ) (2022-12-15T12:14:25Z) - Automatically Creating a Large Number of New Bilingual Dictionaries [2.363388546004777]
本稿では,低リソース言語に対して,多数のバイリンガル辞書を自動生成する手法を提案する。
提案アルゴリズムは,利用可能なWordnetと機械翻訳器を用いて,ソースコード中の単語を多言語に翻訳する。
論文 参考訳(メタデータ) (2022-08-12T04:25:23Z) - Creating Lexical Resources for Endangered Languages [2.363388546004777]
我々のアルゴリズムは公開ワードネットと機械翻訳装置(MT)を用いてバイリンガル辞書と多言語シソーラスを構築する。
我々の研究は、絶滅危惧言語と「中間ヘルパー」言語の間のバイリンガル辞書にのみ依存しているため、既存のリソースが不足している言語に適用できる。
論文 参考訳(メタデータ) (2022-08-08T02:31:28Z) - Creating Reverse Bilingual Dictionaries [2.792030485253753]
本稿では,既存のバイリンガル辞書から新たなリバースバイリンガル辞書を作成するアルゴリズムを提案する。
提案アルゴリズムは,英単語ネットを用いた単語概念ペア間の類似性を利用して,逆辞書エントリを生成する。
論文 参考訳(メタデータ) (2022-08-08T01:41:55Z) - Towards Automatic Construction of Filipino WordNet: Word Sense Induction
and Synset Induction Using Sentence Embeddings [0.7214142393172727]
本研究では,2つの言語資源のみを用いた単語知覚誘導と合成誘導の手法を提案する。
結果として得られる感覚のインベントリとシノニムセットは、ワードネットを自動生成するのに使用することができる。
本研究は、誘導された単語感覚の30%が有効であり、誘導された合成セットの40%が新規な合成セットであることを示す。
論文 参考訳(メタデータ) (2022-04-07T06:50:37Z) - Data Augmentation for Sign Language Gloss Translation [115.13684506803529]
手話翻訳(SLT)は、しばしばビデオ-グロス認識とグロス-テキスト翻訳に分解される。
ここでは低リソースのニューラルネットワーク翻訳(NMT)問題として扱うグロス・トゥ・テキスト翻訳に焦点を当てる。
そこで得られた合成データの事前学習により、アメリカ手話(ASL)から英語、ドイツ語手話(DGS)からドイツ語への翻訳を、それぞれ3.14および2.20BLEUまで改善した。
論文 参考訳(メタデータ) (2021-05-16T16:37:36Z) - Improving the Lexical Ability of Pretrained Language Models for
Unsupervised Neural Machine Translation [127.81351683335143]
クロスリンガルプリトレーニングは、2つの言語の語彙的表現と高レベル表現を整列させるモデルを必要とする。
これまでの研究では、これは表現が十分に整合していないためです。
本稿では,語彙レベルの情報で事前学習するバイリンガルマスク言語モデルを,型レベルのクロスリンガルサブワード埋め込みを用いて強化する。
論文 参考訳(メタデータ) (2021-03-18T21:17:58Z) - Learning Contextualised Cross-lingual Word Embeddings and Alignments for
Extremely Low-Resource Languages Using Parallel Corpora [63.5286019659504]
そこで本稿では,小さな並列コーパスに基づく文脈型言語間単語埋め込み学習手法を提案する。
本手法は,入力文の翻訳と再構成を同時に行うLSTMエンコーダデコーダモデルを用いて単語埋め込みを実現する。
論文 参考訳(メタデータ) (2020-10-27T22:24:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。