論文の概要: A Unified Model for Reverse Dictionary and Definition Modelling
- arxiv url: http://arxiv.org/abs/2205.04602v1
- Date: Mon, 9 May 2022 23:52:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-12 19:32:44.558752
- Title: A Unified Model for Reverse Dictionary and Definition Modelling
- Title(参考訳): 逆辞書と定義モデリングのための統一モデル
- Authors: Pinzhen Chen, Zheng Zhao
- Abstract要約: 我々は、定義(逆辞書)から単語を推測し、与えられた単語(定義モデリング)を生成するために、二方向ニューラル辞書を訓練する。
本手法は,2つのタスクを同時に学習し,埋め込みによる未知語処理を行う。
単語や定義を共有層を通じて同じ表現空間にキャストし、そこから他の形式をマルチタスク形式で生成する。
- 参考スコア(独自算出の注目度): 7.353994554197792
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We train a dual-way neural dictionary to guess words from definitions
(reverse dictionary), and produce definitions given words (definition
modelling). Our method learns the two tasks simultaneously, and handles unknown
words via embeddings. It casts a word or a definition to the same
representation space through a shared layer, then generates the other form from
there, in a multi-task fashion. The model achieves promising automatic scores
without extra resources. Human annotators prefer the proposed model's outputs
in both reference-less and reference-based evaluation, which indicates its
practicality. Analysis suggests that multiple objectives benefit learning.
- Abstract(参考訳): 二方向ニューラル辞書を訓練し、定義から単語を推測し(逆辞書)、与えられた単語を生成(定義モデル)する。
提案手法は2つのタスクを同時に学習し,未知の単語を埋め込みで処理する。
単語や定義を共有層を通じて同じ表現空間にキャストし、そこから他の形式をマルチタスク形式で生成する。
このモデルは余分なリソースなしで有望な自動スコアを達成する。
ヒューマンアノテータは、その実用性を示す参照レス評価と参照ベース評価の両方において、提案モデルの出力を好む。
分析は、複数の目的が学習に役立つことを示唆している。
関連論文リスト
- Domain Embeddings for Generating Complex Descriptions of Concepts in
Italian Language [65.268245109828]
電子辞書から抽出した言語情報と語彙情報に富んだ分布意味資源を提案する。
リソースは21のドメイン固有の行列と1つの包括的なマトリックスとグラフィカルユーザインタフェースから構成される。
本モデルは,具体的概念知識に直接関連した行列を選択することにより,概念の意味的記述の推論を容易にする。
論文 参考訳(メタデータ) (2024-02-26T15:04:35Z) - Meaning Representations from Trajectories in Autoregressive Models [106.63181745054571]
入力テキストを拡張可能なすべてのトラジェクトリの分布を考慮し,自己回帰言語モデルから意味表現を抽出する。
この戦略はプロンプトフリーであり、微調整は必要とせず、事前訓練された自己回帰モデルにも適用できる。
我々は,大規模なモデルから得られた表現が人間のアノテーションとよく一致し,意味的類似性タスクにおける他のゼロショットおよびプロンプトフリーメソッドよりも優れており,標準埋め込みが扱えないより複雑なエンタテインメントや包含タスクの解決に使用できることを実証的に示す。
論文 参考訳(メタデータ) (2023-10-23T04:35:58Z) - CompoundPiece: Evaluating and Improving Decompounding Performance of
Language Models [77.45934004406283]
複合語を構成語に分割する作業である「分解」を体系的に研究する。
We introduced a dataset of 255k compound and non-compound words across 56 various languages obtained from Wiktionary。
分割のための専用モデルを訓練するための新しい手法を導入する。
論文 参考訳(メタデータ) (2023-05-23T16:32:27Z) - IRB-NLP at SemEval-2022 Task 1: Exploring the Relationship Between Words
and Their Semantic Representations [0.0]
本研究は,CODWOEデータセットを用いた記述的,探索的,予測的データ分析に基づいて行った。
本稿では,定義モデリングとリバース辞書タスクのために設計したシステムの概要について述べる。
論文 参考訳(メタデータ) (2022-05-13T18:15:20Z) - Dict-BERT: Enhancing Language Model Pre-training with Dictionary [42.0998323292348]
事前学習型言語モデル(PLM)は,大規模コーパス上で自己指導型学習タスクを行うことで,普遍的な言語表現を学習することを目的としている。
本研究では,辞書におけるレアワードの定義を活用することで,言語モデル事前学習の強化に焦点をあてる。
入力テキストシーケンスとまれな単語定義間の単語と文レベルのアライメントに関する2つの新しい自己教師付き事前学習タスクを提案する。
論文 参考訳(メタデータ) (2021-10-13T04:29:14Z) - PREDICT: Persian Reverse Dictionary [0.0]
ペルシャ逆辞書実装のための4つの異なるアーキテクチャの比較 (予測)
我々は,オンラインで利用可能な唯一のペルシア語辞書から抽出した (phrase,word) 単語を用いてモデルを評価する。
実験では、付加的注意メカニズムによって強化されたLong Short-Term Memory(LSTM)単位からなるモデルが、元の辞書の単語に匹敵する(場合によってはより良い)提案を作成するのに十分であることを示している。
論文 参考訳(メタデータ) (2021-05-01T17:37:01Z) - NLP-CIC @ DIACR-Ita: POS and Neighbor Based Distributional Models for
Lexical Semantic Change in Diachronic Italian Corpora [62.997667081978825]
本稿では,イタリア語に対する教師なし語彙意味変化のシステムと知見について述べる。
その課題は、対象の単語が時間とともにその意味を進化させたかどうかを判断することであり、それは2つの時間固有のデータセットからの原文のみに依存する。
本研究では,各期間に対象単語を表す2つのモデルを提案し,しきい値と投票方式を用いて変化単語を予測する。
論文 参考訳(メタデータ) (2020-11-07T11:27:18Z) - VCDM: Leveraging Variational Bi-encoding and Deep Contextualized Word
Representations for Improved Definition Modeling [24.775371434410328]
定義モデリングの課題は、単語やフレーズの定義を学習することである。
このタスクの既存のアプローチは差別的であり、直接的ではなく暗黙的に分布的意味論と語彙的意味論を組み合わせたものである。
本稿では、文脈内で使われるフレーズとその定義の基盤となる関係を明示的にモデル化するために、連続潜時変数を導入したタスク生成モデルを提案する。
論文 参考訳(メタデータ) (2020-10-07T02:48:44Z) - Words aren't enough, their order matters: On the Robustness of Grounding
Visual Referring Expressions [87.33156149634392]
視覚的参照表現認識のための標準ベンチマークであるRefCOgを批判的に検討する。
83.7%のケースでは言語構造に関する推論は不要である。
比較学習とマルチタスク学習の2つの手法を提案し,ViLBERTのロバスト性を高める。
論文 参考訳(メタデータ) (2020-05-04T17:09:15Z) - Lexical Sememe Prediction using Dictionary Definitions by Capturing
Local Semantic Correspondence [94.79912471702782]
セメムは人間の言語の最小の意味単位として定義されており、多くのNLPタスクで有用であることが証明されている。
本稿では,このようなマッチングを捕捉し,セメムを予測できるセメム対応プールモデルを提案する。
我々は,有名なSememe KB HowNetのモデルとベースライン手法を評価し,そのモデルが最先端のパフォーマンスを実現することを発見した。
論文 参考訳(メタデータ) (2020-01-16T17:30:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。