論文の概要: Automatically Creating a Large Number of New Bilingual Dictionaries
- arxiv url: http://arxiv.org/abs/2208.06110v1
- Date: Fri, 12 Aug 2022 04:25:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-15 13:17:28.713204
- Title: Automatically Creating a Large Number of New Bilingual Dictionaries
- Title(参考訳): 多数のバイリンガル辞書を自動的に作成する
- Authors: Khang Nhut Lam and Feras Al Tarouti and Jugal Kalita
- Abstract要約: 本稿では,低リソース言語に対して,多数のバイリンガル辞書を自動生成する手法を提案する。
提案アルゴリズムは,利用可能なWordnetと機械翻訳器を用いて,ソースコード中の単語を多言語に翻訳する。
- 参考スコア(独自算出の注目度): 2.363388546004777
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper proposes approaches to automatically create a large number of new
bilingual dictionaries for low-resource languages, especially resource-poor and
endangered languages, from a single input bilingual dictionary. Our algorithms
produce translations of words in a source language to plentiful target
languages using available Wordnets and a machine translator (MT). Since our
approaches rely on just one input dictionary, available Wordnets and an MT,
they are applicable to any bilingual dictionary as long as one of the two
languages is English or has a Wordnet linked to the Princeton Wordnet. Starting
with 5 available bilingual dictionaries, we create 48 new bilingual
dictionaries. Of these, 30 pairs of languages are not supported by the popular
MTs: Google and Bing.
- Abstract(参考訳): 本稿では,低リソース言語,特に資源不足言語と絶滅危惧言語に対して,単一の入力バイリンガル辞書から,多数の新二言語辞書を自動的に作成する手法を提案する。
本アルゴリズムは、利用可能なwordnets と machine translator (mt) を用いて、ソース言語中の単語をターゲット言語に翻訳する。
我々のアプローチは1つの入力辞書、利用可能なWordnet、MTにのみ依存するため、2つの言語のうちの1つが英語である場合や、プリンストンワーネットにリンクされたWordnetがある場合、任意のバイリンガル辞書に適用できる。
5つのバイリンガル辞書から始め、48の新しいバイリンガル辞書を作成します。
そのうち30言語は、人気のMT(GoogleとBing)ではサポートされていない。
関連論文リスト
- Multilingual Word Embeddings for Low-Resource Languages using Anchors
and a Chain of Related Languages [54.832599498774464]
我々は,言語連鎖に基づく新しいアプローチにより,多言語単語埋め込み(MWE)を構築することを提案する。
リソースの豊富なソースから始めて、ターゲットに到達するまで各言語をチェーンに順次追加することで、MWEを一度に1つの言語で構築します。
本手法は,4つの低リソース(5Mトークン)と4つの中程度の低リソース(50M)ターゲット言語を含む4つの言語ファミリーを対象としたバイリンガルレキシコン誘導法について検討した。
論文 参考訳(メタデータ) (2023-11-21T09:59:29Z) - Creating Lexical Resources for Endangered Languages [2.363388546004777]
我々のアルゴリズムは公開ワードネットと機械翻訳装置(MT)を用いてバイリンガル辞書と多言語シソーラスを構築する。
我々の研究は、絶滅危惧言語と「中間ヘルパー」言語の間のバイリンガル辞書にのみ依存しているため、既存のリソースが不足している言語に適用できる。
論文 参考訳(メタデータ) (2022-08-08T02:31:28Z) - Automatically constructing Wordnet synsets [2.363388546004777]
本稿では,資源に富む言語と資源に乏しい言語に対して,Wordnetシンセセットを生成する手法を提案する。
提案アルゴリズムは,既存のWordnetの構文を対象言語Tに翻訳し,翻訳候補にランク付け手法を適用してTで最良の翻訳を見つける。
論文 参考訳(メタデータ) (2022-08-08T02:02:18Z) - Creating Reverse Bilingual Dictionaries [2.792030485253753]
本稿では,既存のバイリンガル辞書から新たなリバースバイリンガル辞書を作成するアルゴリズムを提案する。
提案アルゴリズムは,英単語ネットを用いた単語概念ペア間の類似性を利用して,逆辞書エントリを生成する。
論文 参考訳(メタデータ) (2022-08-08T01:41:55Z) - Dict-NMT: Bilingual Dictionary based NMT for Extremely Low Resource
Languages [1.8787713898828164]
本稿では,辞書の品質,学習データセットのサイズ,言語家族などの影響を詳細に分析する。
複数の低リソーステスト言語で得られた結果は、ベースラインよりもバイリンガル辞書ベースの方法の明確な利点を示している。
論文 参考訳(メタデータ) (2022-06-09T12:03:29Z) - Discovering Representation Sprachbund For Multilingual Pre-Training [139.05668687865688]
多言語事前学習モデルから言語表現を生成し、言語分析を行う。
すべての対象言語を複数のグループにクラスタリングし、表現のスプラックバンドとして各グループに名前を付ける。
言語間ベンチマークで実験を行い、強いベースラインと比較して大幅な改善が達成された。
論文 参考訳(メタデータ) (2021-09-01T09:32:06Z) - Anchor-based Bilingual Word Embeddings for Low-Resource Languages [76.48625630211943]
良質な単言語単語埋め込み(MWEs)は、大量のラベルのないテキストを持つ言語向けに構築することができる。
MWEは、数千の単語変換ペアだけでバイリンガル空間に整列することができる。
本稿では,高資源言語におけるベクトル空間を出発点とするBWEの構築手法を提案する。
論文 参考訳(メタデータ) (2020-10-23T19:17:00Z) - Multilingual Translation with Extensible Multilingual Pretraining and
Finetuning [77.33262578776291]
これまでの研究は、bitextで微調整することで機械翻訳システムを作成できることを実証してきた。
多言語翻訳モデルは多言語微調整により作成可能であることを示す。
事前訓練されたモデルは、性能を損なうことなく、追加の言語を組み込むように拡張できることを実証する。
論文 参考訳(メタデータ) (2020-08-02T05:36:55Z) - Bilingual Dictionary Based Neural Machine Translation without Using
Parallel Sentences [45.99290614777277]
そこで本稿では, 並列文をベースとした機械翻訳(MT)を新たに提案する。
バイリンガル辞書を検索して翻訳する単言語話者学習能力に感化されて,MTシステムがどの程度の確率で到達できるかを確認するタスクを提案する。
論文 参考訳(メタデータ) (2020-07-06T12:05:27Z) - Learning to Scale Multilingual Representations for Vision-Language Tasks [51.27839182889422]
SMALRの有効性は、これまでビジョン言語タスクでサポートされた2倍以上の10の多言語で実証されている。
単語の埋め込み手法と比較して,訓練パラメータの1/5以下で,複数言語による画像文検索と先行作業の3~4%の性能評価を行った。
論文 参考訳(メタデータ) (2020-04-09T01:03:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。