論文の概要: Vec2Gloss: definition modeling leveraging contextualized vectors with
Wordnet gloss
- arxiv url: http://arxiv.org/abs/2305.17855v1
- Date: Mon, 29 May 2023 02:37:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-30 16:18:06.774826
- Title: Vec2Gloss: definition modeling leveraging contextualized vectors with
Wordnet gloss
- Title(参考訳): Vec2Gloss: Wordnet glossを用いた文脈化ベクトルを用いた定義モデリング
- Authors: Yu-Hsiang Tseng, Mao-Chang Ku, Wei-Ling Chen, Yu-Lin Chang, Shu-Kai
Hsieh
- Abstract要約: 対象単語の文脈的埋め込みから光沢を生成するVec2Gloss'モデルを提案する。
この研究で得られた光沢は、中国語のWordnetの体系的な光沢パターンによって実現されている。
以上の結果から,提案したVec2Glossモデルが文脈的埋め込みの語彙-意味的応用に新たな視点を開きつつあることが示唆された。
- 参考スコア(独自算出の注目度): 8.741676279851728
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Contextualized embeddings are proven to be powerful tools in multiple NLP
tasks. Nonetheless, challenges regarding their interpretability and capability
to represent lexical semantics still remain. In this paper, we propose that the
task of definition modeling, which aims to generate the human-readable
definition of the word, provides a route to evaluate or understand the high
dimensional semantic vectors. We propose a `Vec2Gloss' model, which produces
the gloss from the target word's contextualized embeddings. The generated
glosses of this study are made possible by the systematic gloss patterns
provided by Chinese Wordnet. We devise two dependency indices to measure the
semantic and contextual dependency, which are used to analyze the generated
texts in gloss and token levels. Our results indicate that the proposed
`Vec2Gloss' model opens a new perspective to the lexical-semantic applications
of contextualized embeddings.
- Abstract(参考訳): コンテキスト化された埋め込みは、複数のNLPタスクにおいて強力なツールであることが証明されている。
それでも、語彙意味論の解釈可能性や能力に関する課題は残っている。
本稿では,単語の可読な定義を生成することを目的とした定義モデリングの課題について,高次元意味ベクトルの評価や理解を行うための経路を提案する。
本稿では,対象単語の文脈的埋め込みから光沢を生成する「Vec2Gloss」モデルを提案する。
本研究で得られた光沢は,中国語単語ネットの体系的な光沢パターンによって実現されている。
生成したテキストをグロスとトークンレベルで解析するために使用される、意味と文脈の依存関係を測定するために、2つの依存関係インデックスを考案する。
提案した「Vec2Gloss」モデルにより,文脈的埋め込みの語彙・意味的応用への新たな視点が開かれることを示す。
関連論文リスト
- Disentangling Dense Embeddings with Sparse Autoencoders [0.0]
スパースオートエンコーダ(SAE)は、複雑なニューラルネットワークから解釈可能な特徴を抽出する可能性を示している。
大規模言語モデルからの高密度テキスト埋め込みに対するSAEの最初の応用の1つを提示する。
その結果,解釈可能性を提供しながら意味的忠実さを保っていることが明らかとなった。
論文 参考訳(メタデータ) (2024-08-01T15:46:22Z) - Fantastic Semantics and Where to Find Them: Investigating Which Layers of Generative LLMs Reflect Lexical Semantics [50.982315553104975]
本稿では,Llama2という人気言語モデルに対する語彙意味論のボトムアップ進化について検討する。
実験の結果,下位層の表現は語彙的意味論を符号化しているが,上位層はより弱い意味帰納的帰納的帰納的帰納的帰納的帰納的帰納的帰属的帰属的帰属的帰属的存在であることがわかった。
これは、高層層がより良い語彙意味論を得るマスク言語モデリングのような差別的な目的を持つモデルとは対照的である。
論文 参考訳(メタデータ) (2024-03-03T13:14:47Z) - Unifying Latent and Lexicon Representations for Effective Video-Text
Retrieval [87.69394953339238]
ビデオテキスト検索における微細な意味を捉えるために語彙表現を学習するUNIFYフレームワークを提案する。
MSR-VTT と DiDeMo をそれぞれ4.8%,Recall@1 を8.2%改善した。
論文 参考訳(メタデータ) (2024-02-26T17:36:50Z) - How Well Do Text Embedding Models Understand Syntax? [50.440590035493074]
テキスト埋め込みモデルが幅広い構文的文脈にまたがって一般化する能力は、まだ解明されていない。
その結果,既存のテキスト埋め込みモデルは,これらの構文的理解課題に十分対応していないことが明らかとなった。
多様な構文シナリオにおけるテキスト埋め込みモデルの一般化能力を高めるための戦略を提案する。
論文 参考訳(メタデータ) (2023-11-14T08:51:00Z) - "Definition Modeling: To model definitions." Generating Definitions With
Little to No Semantics [0.4061135251278187]
我々は、このタスクが期待するほど意味論を含まないかもしれないという証拠を提示する。
文献から得られた先行モデルは、明示的なポリセミズムのような意味的側面にかなり敏感であることを示す。
論文 参考訳(メタデータ) (2023-06-14T11:08:38Z) - Learnable Visual Words for Interpretable Image Recognition [70.85686267987744]
モデル予測動作を2つの新しいモジュールで解釈するLearable Visual Words (LVW)を提案する。
意味的な視覚的単語学習は、カテゴリ固有の制約を緩和し、異なるカテゴリ間で共有される一般的な視覚的単語を可能にする。
6つの視覚的ベンチマーク実験により,提案したLVWの精度とモデル解釈における優れた効果が示された。
論文 参考訳(メタデータ) (2022-05-22T03:24:45Z) - Augmenting semantic lexicons using word embeddings and transfer learning [1.101002667958165]
本稿では,単語埋め込みと伝達学習を用いて,感情スコアを比較的低コストで拡張するための2つのモデルを提案する。
評価の結果、両モデルともAmazon Mechanical Turkのレビュアーと同様の精度で新しい単語を採点できるが、コストはごくわずかである。
論文 参考訳(メタデータ) (2021-09-18T20:59:52Z) - Deriving Word Vectors from Contextualized Language Models using
Topic-Aware Mention Selection [46.97185212695267]
本稿では,この基本戦略に従って単語表現を学習する手法を提案する。
我々は、文脈を符号化するワードベクトルの袋ではなく、文脈化された言語モデル(CLM)を利用する。
この単純な戦略は、単語埋め込みや既存のCLMベースの戦略よりも意味的特性をより予測し、高品質な単語ベクトルに繋がることを示す。
論文 参考訳(メタデータ) (2021-06-15T08:02:42Z) - Infusing Finetuning with Semantic Dependencies [62.37697048781823]
シンタックスとは異なり、セマンティクスは今日の事前訓練モデルによって表面化されないことを示す。
次に、畳み込みグラフエンコーダを使用して、タスク固有の微調整にセマンティック解析を明示的に組み込む。
論文 参考訳(メタデータ) (2020-12-10T01:27:24Z) - Unsupervised Distillation of Syntactic Information from Contextualized
Word Representations [62.230491683411536]
我々は,ニューラルネットワーク表現における意味論と構造学の非教師なしの絡み合いの課題に取り組む。
この目的のために、構造的に類似しているが意味的に異なる文群を自動的に生成する。
我々は、我々の変換クラスタベクトルが、語彙的意味論ではなく構造的特性によって空間に現れることを実証する。
論文 参考訳(メタデータ) (2020-10-11T15:13:18Z) - Distributional semantic modeling: a revised technique to train term/word
vector space models applying the ontology-related approach [36.248702416150124]
ニューラルネットワークを用いた分散項表現(あるいは項埋め込み)学習による分布意味モデリングのための新しい手法を設計する。
Vec2graphは、動的かつインタラクティブなグラフとして単語埋め込み(私たちの場合の長期埋め込み)を視覚化するためのPythonライブラリである。
論文 参考訳(メタデータ) (2020-03-06T18:27:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。