論文の概要: Using Images to Find Context-Independent Word Representations in Vector Space
- arxiv url: http://arxiv.org/abs/2412.03592v1
- Date: Thu, 28 Nov 2024 08:44:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-08 08:18:05.188254
- Title: Using Images to Find Context-Independent Word Representations in Vector Space
- Title(参考訳): ベクトル空間における文脈に依存しない単語表現を見つけるために画像を利用する
- Authors: Harsh Kumar,
- Abstract要約: 本稿では,辞書の意味や画像の描写を用いて,文脈に依存しない単語ベクトルを見つける手法を提案する。
本手法は,学習時間を大幅に削減しつつ,文脈に基づく手法と相容れない動作を行う。
- 参考スコア(独自算出の注目度): 3.2634122554914002
- License:
- Abstract: Many methods have been proposed to find vector representation for words, but most rely on capturing context from the text to find semantic relationships between these vectors. We propose a novel method of using dictionary meanings and image depictions to find word vectors independent of any context. We use auto-encoder on the word images to find meaningful representations and use them to calculate the word vectors. We finally evaluate our method on word similarity, concept categorization and outlier detection tasks. Our method performs comparably to context-based methods while taking much less training time.
- Abstract(参考訳): 単語のベクトル表現を見つけるために多くの方法が提案されているが、ほとんどの場合、これらのベクトル間の意味的関係を見つけるために、テキストからコンテキストをキャプチャすることに依存している。
本稿では,辞書の意味や画像の描写を用いて,文脈に依存しない単語ベクトルを見つける手法を提案する。
我々は、単語イメージに自動エンコーダを用いて意味のある表現を見つけ、それらを用いて単語ベクトルを計算する。
単語類似性,概念分類,外乱検出タスクについて評価を行った。
本手法は,学習時間を大幅に削減しつつ,文脈に基づく手法と相容れない動作を行う。
関連論文リスト
- Backpack Language Models [108.65930795825416]
Backpacksは、強力なモデリング性能と、解釈可能性と制御のためのインターフェースを組み合わせた、新しいニューラルアーキテクチャである。
学習のあと、感覚ベクトルが特殊化され、それぞれが単語の異なる側面を符号化することがわかった。
本稿では,感覚ベクトルに介入し,制御可能なテキスト生成とデバイアスを行うシンプルなアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-05-26T09:26:23Z) - Contextualized Word Vector-based Methods for Discovering Semantic
Differences with No Training nor Word Alignment [17.229611956178818]
2つのコーパスに現れる単語の意味的差異を検出する手法を提案する。
キーとなる考え方は、意味のカバレッジはその平均語ベクトルのノルムに反映されるということである。
これらの利点は、原住民や非先住民のイングランドのコーパスや、歴史的コーパスにも見られる。
論文 参考訳(メタデータ) (2023-05-19T08:27:17Z) - Representation Learning of Image Schema [2.578242050187029]
画像スキーマのベクトル表現を学習する手法を提案する。
我々の主な目標は、エンボダイド会話エージェントのための比喩的なジェスチャーを生成することである。
論文 参考訳(メタデータ) (2022-07-17T18:42:37Z) - Simple, Interpretable and Stable Method for Detecting Words with Usage
Change across Corpora [54.757845511368814]
2つの文体を比較し、その用法が異なる単語を探すという問題は、しばしばデジタル人文科学や計算社会科学において生じる。
これは一般に、各コーパスに単語の埋め込みを訓練し、ベクトル空間を整列させ、整列空間における余弦距離が大きい単語を探すことでアプローチされる。
本稿では,ベクトル空間アライメントを使わず,各単語の近傍を考慮した代替手法を提案する。
論文 参考訳(メタデータ) (2021-12-28T23:46:00Z) - A Rule-based/BPSO Approach to Produce Low-dimensional Semantic Basis
Vectors Set [0.0]
明示的な意味ベクトルでは、各次元は単語に対応するので、単語ベクトルは解釈可能である。
本研究では,低次元の明示的意味ベクトルを得るための新しい手法を提案する。
論文 参考訳(メタデータ) (2021-11-24T21:23:43Z) - Deriving Word Vectors from Contextualized Language Models using
Topic-Aware Mention Selection [46.97185212695267]
本稿では,この基本戦略に従って単語表現を学習する手法を提案する。
我々は、文脈を符号化するワードベクトルの袋ではなく、文脈化された言語モデル(CLM)を利用する。
この単純な戦略は、単語埋め込みや既存のCLMベースの戦略よりも意味的特性をより予測し、高品質な単語ベクトルに繋がることを示す。
論文 参考訳(メタデータ) (2021-06-15T08:02:42Z) - WOVe: Incorporating Word Order in GloVe Word Embeddings [0.0]
単語をベクトルとして定義することで、機械学習アルゴリズムがテキストを理解し、そこから情報を抽出しやすくなります。
ワードベクトル表現は、単語同義語、単語類似、構文解析など、多くのアプリケーションで使われている。
論文 参考訳(メタデータ) (2021-05-18T15:28:20Z) - Accurate Word Representations with Universal Visual Guidance [55.71425503859685]
本稿では,視覚指導から従来の単語埋め込みを視覚的に強調する視覚的表現法を提案する。
各単語が多様な関連画像に対応するマルチモーダルシードデータセットから,小型の単語画像辞書を構築する。
12の自然言語理解および機械翻訳タスクの実験により,提案手法の有効性と一般化能力がさらに検証された。
論文 参考訳(メタデータ) (2020-12-30T09:11:50Z) - Word Rotator's Distance [50.67809662270474]
テキスト類似性を評価する上での鍵となる原則は、単語のアライメントを考慮した2つのテキスト間の意味的重複度を測定することである。
単語ベクトルのノルムは単語の重要度によいプロキシであり、その角度は単語類似度によいプロキシであることを示す。
本稿では,まず単語ベクトルをノルムと方向に分解し,アライメントに基づく類似性を計算する手法を提案する。
論文 参考訳(メタデータ) (2020-04-30T17:48:42Z) - Learning Representations by Predicting Bags of Visual Words [55.332200948110895]
自己教師付き表現学習ターゲットは、ラベルなしデータから畳み込みに基づく画像表現を学習する。
この分野におけるNLP手法の成功に触発された本研究では,空間的に高密度な画像記述に基づく自己教師型アプローチを提案する。
論文 参考訳(メタデータ) (2020-02-27T16:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。