論文の概要: An Algorithm for Fuzzification of WordNets, Supported by a Mathematical
Proof
- arxiv url: http://arxiv.org/abs/2006.04042v1
- Date: Sun, 7 Jun 2020 04:47:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 08:03:18.244398
- Title: An Algorithm for Fuzzification of WordNets, Supported by a Mathematical
Proof
- Title(参考訳): 数学的証明による単語ネットの曖昧化アルゴリズム
- Authors: Sayyed-Ali Hossayni, Mohammad-R Akbarzadeh-T, Diego Reforgiato
Recupero, Aldo Gangemi, Esteve Del Acebo, Josep Llu\'is de la Rosa i Esteva
- Abstract要約: 任意の言語のWLDのファジィバージョンを構築するアルゴリズムを提案する。
英語WordNet(FWN)のファジフィケーション版をオンラインで公開する。
- 参考スコア(独自算出の注目度): 3.684688928766659
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: WordNet-like Lexical Databases (WLDs) group English words into sets of
synonyms called "synsets." Although the standard WLDs are being used in many
successful Text-Mining applications, they have the limitation that word-senses
are considered to represent the meaning associated to their corresponding
synsets, to the same degree, which is not generally true. In order to overcome
this limitation, several fuzzy versions of synsets have been proposed. A common
trait of these studies is that, to the best of our knowledge, they do not aim
to produce fuzzified versions of the existing WLD's, but build new WLDs from
scratch, which has limited the attention received from the Text-Mining
community, many of whose resources and applications are based on the existing
WLDs. In this study, we present an algorithm for constructing fuzzy versions of
WLDs of any language, given a corpus of documents and a word-sense
disambiguation (WSD) system for that language. Then, using the
Open-American-National-Corpus and UKB WSD as algorithm inputs, we construct and
publish online the fuzzified version of English WordNet (FWN). We also propose
a theoretical (mathematical) proof of the validity of its results.
- Abstract(参考訳): WordNet-like Lexical Databases (WLD) は英語の単語を「シンセット」と呼ばれる同義語の集合に分類する。
標準的なWLDは、多くの成功したテキストマイニングアプリケーションで使われているが、ワードセンスは対応するシンセットに関連する意味を表現していると考えられており、一般的にはそうではない。
この制限を克服するために、いくつかのファジィバージョンのシンセットが提案されている。
これらの研究の共通する特徴は、我々の知る限り、既存のWLDのファジフィケーション版を作るのではなく、スクラッチから新しいWLDを構築することである。
本研究では、文書のコーパスと単語センスの曖昧さ (WSD) を与えられた任意の言語のWLDのファジィバージョンを構築するアルゴリズムを提案する。
そして,Open-American-National-Corpus と UKB WSD をアルゴリズム入力として使用し,英語 WordNet (FWN) のファジファイド版を構築し,公開する。
また,結果の有効性の理論的(数学的)証明も提案する。
関連論文リスト
- Deep Emotions Across Languages: A Novel Approach for Sentiment
Propagation in Multilingual WordNets [4.532887563053358]
本稿では,感傷アノテーションを一部注釈付きWordNetからその全体へ,異なる言語でWordNetへ自動的に伝達する2つの新しい手法を紹介する。
言語間関係の大きい Princeton WordNet と Polish WordNet を用いて,提案した MSSE+CLDNS 法を広範囲に評価した。
以上の結果から,MSSE+CLDNS法は既存の伝搬法よりも優れており,複数の言語にまたがる感情的メタデータを用いたWordNetの強化の有効性が示唆された。
論文 参考訳(メタデータ) (2023-12-07T21:44:14Z) - Towards Effective Disambiguation for Machine Translation with Large
Language Models [65.80775710657672]
我々は「あいまいな文」を翻訳する大規模言語モデルの能力について研究する。
実験の結果,提案手法はDeepLやNLLBといった最先端システムと5つの言語方向のうち4つで一致し,性能を向上できることがわかった。
論文 参考訳(メタデータ) (2023-09-20T22:22:52Z) - Always Keep your Target in Mind: Studying Semantics and Improving
Performance of Neural Lexical Substitution [124.99894592871385]
本稿では,従来の言語モデルと最近の言語モデルの両方を用いた語彙置換手法の大規模比較研究を行う。
目的語に関する情報を適切に注入すれば,SOTA LMs/MLMsによるすでに競合する結果がさらに大幅に改善できることを示す。
論文 参考訳(メタデータ) (2022-06-07T16:16:19Z) - Multi-level Contrastive Learning for Cross-lingual Spoken Language
Understanding [90.87454350016121]
コントラスト学習のための難解なサンプルを, あらゆるレベルで生成するコードスイッチング手法を開発した。
言語間知識伝達にラベルセマンティクスを利用するラベル認識ジョイントモデルを開発した。
論文 参考訳(メタデータ) (2022-05-07T13:44:28Z) - More Than Words: Collocation Tokenization for Latent Dirichlet
Allocation Models [71.42030830910227]
モデルが異なる環境でクラスタリングの品質を測定するための新しい指標を提案する。
マージトークンでトレーニングされたトピックは、マージされていないモデルよりも、より明確で、一貫性があり、トピックを区別する効果が高いトピックキーをもたらすことを示す。
論文 参考訳(メタデータ) (2021-08-24T14:08:19Z) - Interval Probabilistic Fuzzy WordNet [8.396691008449704]
本稿では,任意の言語でIPF(Interval Probabilistic Fuzzy)シンセサイザーを構築するアルゴリズムを提案する。
我々は、英語のためのWordNetのIPFシンセセットを構築し、公開した。
論文 参考訳(メタデータ) (2021-04-04T17:28:37Z) - Deconstructing word embedding algorithms [17.797952730495453]
我々は、最もよく知られた単語埋め込みアルゴリズムのいくつかについて振り返りを提案する。
本研究では,Word2vec,GloVe,その他を共通形式に分解し,実演語埋め込みに必要な共通条件を明らかにした。
論文 参考訳(メタデータ) (2020-11-12T14:23:35Z) - Learning Contextualised Cross-lingual Word Embeddings and Alignments for
Extremely Low-Resource Languages Using Parallel Corpora [63.5286019659504]
そこで本稿では,小さな並列コーパスに基づく文脈型言語間単語埋め込み学習手法を提案する。
本手法は,入力文の翻訳と再構成を同時に行うLSTMエンコーダデコーダモデルを用いて単語埋め込みを実現する。
論文 参考訳(メタデータ) (2020-10-27T22:24:01Z) - A Comparative Study of Lexical Substitution Approaches based on Neural
Language Models [117.96628873753123]
本稿では,一般的なニューラル言語とマスキング言語モデルの大規模比較研究について述べる。
目的語に関する情報を適切に注入すれば,SOTA LMs/MLMsによって達成された既に競合する結果をさらに改善できることを示す。
論文 参考訳(メタデータ) (2020-05-29T18:43:22Z) - Language-Independent Tokenisation Rivals Language-Specific Tokenisation
for Word Similarity Prediction [12.376752724719005]
言語に依存しないトークン化(LIT)メソッドはラベル付き言語リソースや語彙を必要としない。
言語固有のトークン化(LST)手法は、長い歴史と確立された歴史を持ち、慎重に作成された語彙とトレーニングリソースを用いて開発されている。
意味的類似度測定を多種多様な言語を対象とした評価課題として用いた2つの手法を実証的に比較した。
論文 参考訳(メタデータ) (2020-02-25T16:24:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。