論文の概要: Learning Semantic Textual Similarity via Topic-informed Discrete Latent
Variables
- arxiv url: http://arxiv.org/abs/2211.03616v1
- Date: Mon, 7 Nov 2022 15:09:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 15:25:20.403090
- Title: Learning Semantic Textual Similarity via Topic-informed Discrete Latent
Variables
- Title(参考訳): トピックインフォームド離散潜在変数による意味テキストの類似性学習
- Authors: Erxin Yu, Lan Du, Yuan Jin, Zhepei Wei and Yi Chang
- Abstract要約: 我々は、意味的テキスト類似性のためのトピックインフォームド離散潜在変数モデルを開発した。
我々のモデルはベクトル量子化による文対表現のための共有潜在空間を学習する。
我々のモデルは意味的テキスト類似性タスクにおいて、いくつかの強力な神経ベースラインを超えることができることを示す。
- 参考スコア(独自算出の注目度): 17.57873577962635
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Recently, discrete latent variable models have received a surge of interest
in both Natural Language Processing (NLP) and Computer Vision (CV), attributed
to their comparable performance to the continuous counterparts in
representation learning, while being more interpretable in their predictions.
In this paper, we develop a topic-informed discrete latent variable model for
semantic textual similarity, which learns a shared latent space for
sentence-pair representation via vector quantization. Compared with previous
models limited to local semantic contexts, our model can explore richer
semantic information via topic modeling. We further boost the performance of
semantic similarity by injecting the quantized representation into a
transformer-based language model with a well-designed semantic-driven attention
mechanism. We demonstrate, through extensive experiments across various English
language datasets, that our model is able to surpass several strong neural
baselines in semantic textual similarity tasks.
- Abstract(参考訳): 近年,自然言語処理(nlp)とコンピュータビジョン(cv)の両方において,離散的潜在変数モデルへの関心が高まっている。
本稿では,ベクトル量子化による文対表現のための共有潜在空間を学習する,意味的テキスト類似性のためのトピックインフォームド離散潜在変数モデルを開発する。
局所的な意味的文脈に限定した従来のモデルと比較して,我々はトピックモデリングを通じてより豊かな意味的情報を探索できる。
我々は, 適切に設計された意味駆動注意機構を備えたトランスフォーマト言語モデルに量子化表現を注入することにより, 意味的類似性の性能をさらに向上させる。
我々は,様々な英語データセットにわたる広範囲な実験を通じて,意味的テキスト類似性タスクにおいて,複数の強力なニューラルネットワークベースラインを超越できることを実証する。
関連論文リスト
- Explaining Text Similarity in Transformer Models [52.571158418102584]
説明可能なAIの最近の進歩により、トランスフォーマーの説明の改善を活用することで、制限を緩和できるようになった。
両線形類似性モデルにおける2次説明の計算のために開発された拡張であるBiLRPを用いて、NLPモデルにおいてどの特徴相互作用が類似性を促進するかを調べる。
我々の発見は、異なる意味的類似性タスクやモデルに対するより深い理解に寄与し、新しい説明可能なAIメソッドが、どのようにして深い分析とコーパスレベルの洞察を可能にするかを強調した。
論文 参考訳(メタデータ) (2024-05-10T17:11:31Z) - Corpus Considerations for Annotator Modeling and Scaling [9.263562546969695]
一般的に使われているユーザトークンモデルは、より複雑なモデルよりも一貫して優れています。
以上の結果から,コーパス統計とアノテータモデリング性能の関係が明らかになった。
論文 参考訳(メタデータ) (2024-04-02T22:27:24Z) - Probabilistic Transformer: A Probabilistic Dependency Model for
Contextual Word Representation [52.270712965271656]
本稿では,文脈表現の新しいモデルを提案する。
モデルのグラフは変換器に似ており、依存関係と自己意識の対応性がある。
実験により,本モデルが小型・中型データセットのトランスフォーマーと競合することを示す。
論文 参考訳(メタデータ) (2023-11-26T06:56:02Z) - Flow Factorized Representation Learning [109.51947536586677]
本稿では、異なる入力変換を定義する潜在確率パスの別個のセットを規定する生成モデルを提案する。
本モデルは,ほぼ同変モデルに近づきながら,標準表現学習ベンチマークにおいて高い確率を達成することを示す。
論文 参考訳(メタデータ) (2023-09-22T20:15:37Z) - UniDiff: Advancing Vision-Language Models with Generative and
Discriminative Learning [86.91893533388628]
本稿では、画像テキストコントラスト学習(ITC)、テキスト条件付き画像合成学習(IS)、相互意味整合性モデリング(RSC)を統合した統合マルチモーダルモデルUniDiffを提案する。
UniDiffはマルチモーダル理解と生成タスクの両方において汎用性を示す。
論文 参考訳(メタデータ) (2023-06-01T15:39:38Z) - Constructing Word-Context-Coupled Space Aligned with Associative
Knowledge Relations for Interpretable Language Modeling [0.0]
事前訓練された言語モデルにおけるディープニューラルネットワークのブラックボックス構造は、言語モデリングプロセスの解釈可能性を大幅に制限する。
解釈不能なニューラル表現と解釈不能な統計論理のアライメント処理を導入することで,ワードコンテキスト結合空間(W2CSpace)を提案する。
我々の言語モデルは,関連する最先端手法と比較して,優れた性能と信頼性の高い解釈能力を実現することができる。
論文 参考訳(メタデータ) (2023-05-19T09:26:02Z) - Disentangling Generative Factors in Natural Language with Discrete
Variational Autoencoders [0.0]
連続変数は、テキスト中のほとんどの生成因子が離散的であるという事実から、テキストデータの特徴をモデル化するのに理想的ではないかもしれない。
本稿では,言語特徴を離散変数としてモデル化し,不整合表現を学習するための変数間の独立性を促進する変分自動符号化手法を提案する。
論文 参考訳(メタデータ) (2021-09-15T09:10:05Z) - A comprehensive comparative evaluation and analysis of Distributional
Semantic Models [61.41800660636555]
我々は、静的DSMによって生成されたり、BERTによって生成された文脈化されたベクトルを平均化して得られるような、型分布ベクトルの包括的評価を行う。
その結果、予測ベースモデルの優越性は現実よりも明らかであり、ユビキタスではないことが明らかとなった。
我々は認知神経科学からRepresentational similarity Analysis(RSA)の方法論を借りて、分布モデルによって生成された意味空間を検査する。
論文 参考訳(メタデータ) (2021-05-20T15:18:06Z) - Improve Variational Autoencoder for Text Generationwith Discrete Latent
Bottleneck [52.08901549360262]
変分オートエンコーダ(VAE)は、エンドツーエンドの表現学習において必須のツールである。
VAEは強い自己回帰デコーダで潜伏変数を無視する傾向がある。
よりコンパクトな潜在空間において暗黙的な潜在特徴マッチングを強制する原理的アプローチを提案する。
論文 参考訳(メタデータ) (2020-04-22T14:41:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。