論文の概要: Quantum Inspired Word Representation and Computation
- arxiv url: http://arxiv.org/abs/2004.02705v2
- Date: Wed, 8 Apr 2020 03:00:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-16 05:36:12.504912
- Title: Quantum Inspired Word Representation and Computation
- Title(参考訳): 量子インスパイアされた単語表現と計算
- Authors: Shen Li, Renfen Hu, Jinshan Wu
- Abstract要約: 我々は単語を密度行列として表現するが、これは本質的に混合状態を表現することができる。
実験の結果,密度行列表現は単語の意味の異なる側面を効果的に捉えることができることがわかった。
本稿では,ベクトルおよび密度行列の計算におけるコヒーレント和と非コヒーレント和を組み合わせた新しい手法を提案する。
- 参考スコア(独自算出の注目度): 13.35038288273036
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Word meaning has different aspects, while the existing word representation
"compresses" these aspects into a single vector, and it needs further analysis
to recover the information in different dimensions. Inspired by quantum
probability, we represent words as density matrices, which are inherently
capable of representing mixed states. The experiment shows that the density
matrix representation can effectively capture different aspects of word meaning
while maintaining comparable reliability with the vector representation.
Furthermore, we propose a novel method to combine the coherent summation and
incoherent summation in the computation of both vectors and density matrices.
It achieves consistent improvement on word analogy task.
- Abstract(参考訳): 単語の意味は異なる側面を持ち、既存の単語表現はこれらの側面を単一のベクトルに「圧縮」し、異なる次元の情報を復元するにはさらなる分析が必要である。
量子確率にインスパイアされた単語は、本質的に混合状態を表現することができる密度行列として表現する。
実験により, 密度行列表現は, ベクトル表現と同等の信頼性を維持しつつ, 単語の意味の異なる側面を効果的に捉えることができることを示した。
さらに,ベクトルと密度行列の計算において,コヒーレント和と非コヒーレント和を組み合わせた新しい手法を提案する。
単語類似処理における一貫した改善を実現する。
関連論文リスト
- Quantization of Large Language Models with an Overdetermined Basis [73.79368761182998]
本稿では,嘉心表現の原理に基づくデータ量子化アルゴリズムを提案する。
以上の結果から, カシ量子化はモデル性能の競争力や優れた品質を達成できることが示唆された。
論文 参考訳(メタデータ) (2024-04-15T12:38:46Z) - Robust Concept Erasure via Kernelized Rate-Distortion Maximization [38.19696482602788]
KRaM(Kernelized Rate-Distortion Maximizer)を提案する。
KRaMは、修正レート歪み関数を用いて指定された距離測度(ラベル付き概念で定義され消去される)と一致するように表現の変換に適合する。
KRaMは、データ表現からカテゴリ変数、連続変数、ベクトル値変数など、さまざまな種類の概念を効果的に消去する。
論文 参考訳(メタデータ) (2023-11-30T21:10:44Z) - Grounding and Distinguishing Conceptual Vocabulary Through Similarity
Learning in Embodied Simulations [4.507860128918788]
そこで本研究では,具体的シミュレーションによって収集されたエージェント体験を用いて,文脈化された単語ベクトルをオブジェクト表現にグラウンド化する手法を提案する。
類似性学習を用いて、相互作用するオブジェクトの特性に基づいて、異なるオブジェクトタイプの比較を行い、オブジェクトの振る舞いに関連する共通の特徴を抽出する。
論文 参考訳(メタデータ) (2023-05-23T04:22:00Z) - Sublinear Time Approximation of Text Similarity Matrices [50.73398637380375]
一般的なNystr"om法を不確定な設定に一般化する。
我々のアルゴリズムは任意の類似性行列に適用でき、行列のサイズでサブ線形時間で実行される。
本手法は,CUR分解の単純な変種とともに,様々な類似性行列の近似において非常によく機能することを示す。
論文 参考訳(メタデータ) (2021-12-17T17:04:34Z) - Word2Box: Learning Word Representation Using Box Embeddings [28.080105878687185]
単語のベクトル表現を学習することは、NLPにおける最も基本的なトピックの1つである。
我々のモデルであるWord2Boxは、単語表現の問題に対する領域ベースアプローチを採用し、単語を$n$次元長方形として表現する。
様々な単語類似性タスク、特にあまり一般的でない単語の性能向上を実証した。
論文 参考訳(メタデータ) (2021-06-28T01:17:11Z) - Cross-Modal Discrete Representation Learning [73.68393416984618]
本稿では,様々なモダリティにまたがるより細かい粒度を捉える表現を学習する自己教師型学習フレームワークを提案する。
我々のフレームワークは、異なるモダリティ間で共有されるベクトル量子化によって生成される離散化された埋め込み空間に依存している。
論文 参考訳(メタデータ) (2021-06-10T00:23:33Z) - SemGloVe: Semantic Co-occurrences for GloVe from BERT [55.420035541274444]
GloVeは単語共起行列からの統計情報を利用して単語埋め込みを学ぶ。
BERTから静的なGloVeワード埋め込みに意味的共起を蒸留するSemGloVeを提案します。
論文 参考訳(メタデータ) (2020-12-30T15:38:26Z) - Accurate Word Representations with Universal Visual Guidance [55.71425503859685]
本稿では,視覚指導から従来の単語埋め込みを視覚的に強調する視覚的表現法を提案する。
各単語が多様な関連画像に対応するマルチモーダルシードデータセットから,小型の単語画像辞書を構築する。
12の自然言語理解および機械翻訳タスクの実験により,提案手法の有効性と一般化能力がさらに検証された。
論文 参考訳(メタデータ) (2020-12-30T09:11:50Z) - Modelling Lexical Ambiguity with Density Matrices [3.7692411550925664]
コーパスから密度行列を学習するための3つの新しいニューラルモデルを提案する。
様々な構成データセットで単語感覚を識別する能力をテストする。
論文 参考訳(メタデータ) (2020-10-12T13:08:45Z) - Unsupervised Distillation of Syntactic Information from Contextualized
Word Representations [62.230491683411536]
我々は,ニューラルネットワーク表現における意味論と構造学の非教師なしの絡み合いの課題に取り組む。
この目的のために、構造的に類似しているが意味的に異なる文群を自動的に生成する。
我々は、我々の変換クラスタベクトルが、語彙的意味論ではなく構造的特性によって空間に現れることを実証する。
論文 参考訳(メタデータ) (2020-10-11T15:13:18Z) - Unsupervised Summarization by Jointly Extracting Sentences and Keywords [12.387378783627762]
RepRankは、抽出多文書要約のための教師なしグラフベースのランキングモデルである。
学習した表現を用いて,有意な文やキーワードを協調的・相互強化プロセスで抽出できることを示す。
複数のベンチマークデータセットによる実験結果は、RepRankがROUGEで最高の、または同等のパフォーマンスを達成したことを示している。
論文 参考訳(メタデータ) (2020-09-16T05:58:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。