論文の概要: Modelling Lexical Ambiguity with Density Matrices
- arxiv url: http://arxiv.org/abs/2010.05670v1
- Date: Mon, 12 Oct 2020 13:08:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-08 06:50:03.854079
- Title: Modelling Lexical Ambiguity with Density Matrices
- Title(参考訳): 密度行列を用いた語彙の曖昧さのモデル化
- Authors: Francois Meyer and Martha Lewis
- Abstract要約: コーパスから密度行列を学習するための3つの新しいニューラルモデルを提案する。
様々な構成データセットで単語感覚を識別する能力をテストする。
- 参考スコア(独自算出の注目度): 3.7692411550925664
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Words can have multiple senses. Compositional distributional models of
meaning have been argued to deal well with finer shades of meaning variation
known as polysemy, but are not so well equipped to handle word senses that are
etymologically unrelated, or homonymy. Moving from vectors to density matrices
allows us to encode a probability distribution over different senses of a word,
and can also be accommodated within a compositional distributional model of
meaning. In this paper we present three new neural models for learning density
matrices from a corpus, and test their ability to discriminate between word
senses on a range of compositional datasets. When paired with a particular
composition method, our best model outperforms existing vector-based
compositional models as well as strong sentence encoders.
- Abstract(参考訳): 言葉には複数の感覚がある。
意味の組成分布モデルは、ポリセミーとして知られる意味変化の微妙なシェードをうまく扱うことが主張されているが、語源的に無関係な単語感覚やホモニーミーを扱うには十分ではない。
ベクトルから密度行列への移動は、単語の異なる感覚上の確率分布を符号化することができ、また意味の合成分布モデルにも適用できる。
本稿では,コーパスから密度行列を学習するための3つのニューラルモデルを提案する。
特定の合成法と組み合わせると、我々の最良のモデルは既存のベクトルベース合成モデルと強い文エンコーダよりも優れる。
関連論文リスト
- Density Matrices for Metaphor Understanding [12.568794861914451]
メタファーを語彙的曖昧さの一種とみなし、単語感覚の混合を用いてメタファー的意味を効果的にモデル化できるかどうかを検討する。
我々の最も優れた密度行列法は、単純なベースラインやいくつかのニューラルネットワークモデルよりも優れています。
論文 参考訳(メタデータ) (2024-08-12T11:21:56Z) - Domain Embeddings for Generating Complex Descriptions of Concepts in
Italian Language [65.268245109828]
電子辞書から抽出した言語情報と語彙情報に富んだ分布意味資源を提案する。
リソースは21のドメイン固有の行列と1つの包括的なマトリックスとグラフィカルユーザインタフェースから構成される。
本モデルは,具体的概念知識に直接関連した行列を選択することにより,概念の意味的記述の推論を容易にする。
論文 参考訳(メタデータ) (2024-02-26T15:04:35Z) - TERM Model: Tensor Ring Mixture Model for Density Estimation [48.622060998018206]
本稿では,密度推定器のテンソルリング分解を行い,置換候補の数を著しく削減する。
適応重み付き複数の置換候補を組み込んだ混合モデルはさらに設計され、表現柔軟性が向上する。
このアプローチは、最適置換以外にも、最適置換が独特な情報を提供できることを認めている。
論文 参考訳(メタデータ) (2023-12-13T11:39:56Z) - Probabilistic Transformer: A Probabilistic Dependency Model for
Contextual Word Representation [52.270712965271656]
本稿では,文脈表現の新しいモデルを提案する。
モデルのグラフは変換器に似ており、依存関係と自己意識の対応性がある。
実験により,本モデルが小型・中型データセットのトランスフォーマーと競合することを示す。
論文 参考訳(メタデータ) (2023-11-26T06:56:02Z) - Meaning Representations from Trajectories in Autoregressive Models [106.63181745054571]
入力テキストを拡張可能なすべてのトラジェクトリの分布を考慮し,自己回帰言語モデルから意味表現を抽出する。
この戦略はプロンプトフリーであり、微調整は必要とせず、事前訓練された自己回帰モデルにも適用できる。
我々は,大規模なモデルから得られた表現が人間のアノテーションとよく一致し,意味的類似性タスクにおける他のゼロショットおよびプロンプトフリーメソッドよりも優れており,標準埋め込みが扱えないより複雑なエンタテインメントや包含タスクの解決に使用できることを実証的に示す。
論文 参考訳(メタデータ) (2023-10-23T04:35:58Z) - Disentanglement via Latent Quantization [60.37109712033694]
本研究では,組織化された潜在空間からの符号化と復号化に向けた帰納的バイアスを構築する。
本稿では,基本データレコーダ (vanilla autoencoder) と潜時再構成 (InfoGAN) 生成モデルの両方に追加することで,このアプローチの広範な適用性を実証する。
論文 参考訳(メタデータ) (2023-05-28T06:30:29Z) - Kernel Density Matrices for Probabilistic Deep Learning [8.486487001779416]
量子力学において、密度行列は量子系の状態を記述する最も一般的な方法である。
本稿では,確率的深層学習,カーネル密度行列に対する新しいアプローチを提案する。
これは連続確率変数と離散確率変数の両方の結合確率分布を表現するためのより単純で効果的なメカニズムを提供する。
論文 参考訳(メタデータ) (2023-05-26T12:59:58Z) - Linear Spaces of Meanings: Compositional Structures in Vision-Language
Models [110.00434385712786]
事前学習された視覚言語モデル(VLM)からのデータ埋め込みにおける構成構造について検討する。
まず,幾何学的観点から構成構造を理解するための枠組みを提案する。
次に、これらの構造がVLM埋め込みの場合の確率論的に持つものを説明し、実際に発生する理由の直観を提供する。
論文 参考訳(メタデータ) (2023-02-28T08:11:56Z) - Measuring diachronic sense change: new models and Monte Carlo methods
for Bayesian inference [3.1727619150610837]
単語の袋モデルでは、複数の意味を持つ単語の感覚を文脈語上の確率分布として表現する。
既存の生成感覚変化モデルを適用し、感覚と時間の主な効果のためのより単純なモデルを開発する。
本モデルを用いて「コスモス」を含むスニペットの自動感覚アノテーションを行い、その3つの感覚の時間進化とその有病率を測定します。
論文 参考訳(メタデータ) (2021-04-14T11:40:21Z) - Learning with Density Matrices and Random Features [44.98964870180375]
密度行列は、量子系の統計状態を記述する。
量子系の量子的不確実性と古典的不確実性の両方を表現することは強力な形式主義である。
本稿では,機械学習モデルのビルディングブロックとして密度行列をどのように利用できるかを検討する。
論文 参考訳(メタデータ) (2021-02-08T17:54:59Z) - Quantum Inspired Word Representation and Computation [13.35038288273036]
我々は単語を密度行列として表現するが、これは本質的に混合状態を表現することができる。
実験の結果,密度行列表現は単語の意味の異なる側面を効果的に捉えることができることがわかった。
本稿では,ベクトルおよび密度行列の計算におけるコヒーレント和と非コヒーレント和を組み合わせた新しい手法を提案する。
論文 参考訳(メタデータ) (2020-04-06T14:37:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。