論文の概要: Evaluation of taxonomic and neural embedding methods for calculating
semantic similarity
- arxiv url: http://arxiv.org/abs/2209.15197v1
- Date: Fri, 30 Sep 2022 02:54:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-03 14:11:56.509471
- Title: Evaluation of taxonomic and neural embedding methods for calculating
semantic similarity
- Title(参考訳): 意味的類似性計算のための分類学および神経埋め込み法の評価
- Authors: Dongqiang Yang, Yanqin Yin
- Abstract要約: 分類学的類似度尺度と分布的類似度尺度のメカニズムについて検討する。
分類学的類似度尺度は、意味的類似度を予測するための素因として、最短経路長に依存する可能性がある。
類似性予測における概念関係と神経埋め込みの相乗効果は、伝達学習における知識ベースを活用する新しい傾向を示す可能性がある。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modelling semantic similarity plays a fundamental role in lexical semantic
applications. A natural way of calculating semantic similarity is to access
handcrafted semantic networks, but similarity prediction can also be
anticipated in a distributional vector space. Similarity calculation continues
to be a challenging task, even with the latest breakthroughs in deep neural
language models. We first examined popular methodologies in measuring taxonomic
similarity, including edge-counting that solely employs semantic relations in a
taxonomy, as well as the complex methods that estimate concept specificity. We
further extrapolated three weighting factors in modelling taxonomic similarity.
To study the distinct mechanisms between taxonomic and distributional
similarity measures, we ran head-to-head comparisons of each measure with human
similarity judgements from the perspectives of word frequency, polysemy degree
and similarity intensity. Our findings suggest that without fine-tuning the
uniform distance, taxonomic similarity measures can depend on the shortest path
length as a prime factor to predict semantic similarity; in contrast to
distributional semantics, edge-counting is free from sense distribution bias in
use and can measure word similarity both literally and metaphorically; the
synergy of retrofitting neural embeddings with concept relations in similarity
prediction may indicate a new trend to leverage knowledge bases on transfer
learning. It appears that a large gap still exists on computing semantic
similarity among different ranges of word frequency, polysemous degree and
similarity intensity.
- Abstract(参考訳): 意味的類似性のモデリングは語彙的意味論的応用において基本的な役割を担っている。
意味的類似性を計算する自然な方法は手作りのセマンティックネットワークにアクセスすることであるが、分布ベクトル空間においても類似性予測が期待できる。
深いニューラルネットワークモデルの最新のブレークスルーにもかかわらず、類似性計算は依然として難しい課題である。
まず,分類学における意味的関係のみを利用するエッジカウンティングや,概念特異性を推定する複雑な手法など,分類学的類似性を測定する一般的な手法を検討した。
さらに分類学的類似性をモデル化する際の重み付け因子を3つ外挿した。
分類学的な類似度尺度と分布的類似度尺度の異なるメカニズムを検討するために,単語頻度,多義性度,類似度強度の観点から,各尺度と人間の類似度判定を頭対頭比較した。
Our findings suggest that without fine-tuning the uniform distance, taxonomic similarity measures can depend on the shortest path length as a prime factor to predict semantic similarity; in contrast to distributional semantics, edge-counting is free from sense distribution bias in use and can measure word similarity both literally and metaphorically; the synergy of retrofitting neural embeddings with concept relations in similarity prediction may indicate a new trend to leverage knowledge bases on transfer learning.
単語の頻度、多義度、類似度強度の異なる範囲における意味的類似性を計算する上では、依然として大きなギャップが存在するようである。
関連論文リスト
- Counting Like Human: Anthropoid Crowd Counting on Modeling the
Similarity of Objects [92.80955339180119]
メインストリームの群衆計数法は 密度マップを補強して 計数結果を得るために統合する。
これに触発された我々は,合理的かつ人為的な集団カウントフレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-02T07:00:53Z) - Similarity between Units of Natural Language: The Transition from Coarse
to Fine Estimation [0.0]
人間の言語ユニット間の類似性を捉えることは、人間がどう異なる物体を関連づけるかを説明するのに不可欠です。
この論文における私の研究目標は、より洗練された方法で言語単位間の類似性を考慮した回帰モデルを開発することです。
論文 参考訳(メタデータ) (2022-10-25T18:54:32Z) - Attributable Visual Similarity Learning [90.69718495533144]
本稿では、画像間のより正確で説明可能な類似度測定のための帰属的視覚類似度学習(AVSL)フレームワークを提案する。
人間の意味的類似性認知に動機づけられた2つの画像とグラフとの類似性を表現するために,一般化された類似性学習パラダイムを提案する。
CUB-200-2011、Cars196、Stanford Online Productsデータセットの実験は、既存の深い類似性学習方法よりも大幅に改善されたことを示している。
論文 参考訳(メタデータ) (2022-03-28T17:35:31Z) - Deconfounded Representation Similarity for Comparison of Neural Networks [16.23053104309891]
類似度指標は、入力空間内のデータ項目の集団構造によって構成される。
類似度指標を分解することで,意味論的に類似したニューラルネットワークを検出する分解能が向上することを示す。
論文 参考訳(メタデータ) (2022-01-31T21:25:02Z) - MNet-Sim: A Multi-layered Semantic Similarity Network to Evaluate
Sentence Similarity [0.0]
類似性(英: similarity)は、それが考慮される領域によって異なる比較目的測度である。
本稿では,複数の類似度に基づく多層意味類似性ネットワークモデルを提案する。
その結果, 文類似性の評価において, 性能スコアが向上していることが判明した。
論文 参考訳(メタデータ) (2021-11-09T20:43:18Z) - Rethinking Crowd Sourcing for Semantic Similarity [0.13999481573773073]
本稿では,クラウドソース型セマンティックラベリングにおけるあいまいさについて検討する。
これは、セマンティックな類似性をバイナリカテゴリとして扱うアノテーションが、ラベル付けにおいて最も重要な役割を担っていることを示している。
論文 参考訳(メタデータ) (2021-09-24T13:57:30Z) - Instance Similarity Learning for Unsupervised Feature Representation [83.31011038813459]
教師なし特徴表現のための例類似性学習(ISL)手法を提案する。
我々はGAN(Generative Adversarial Networks)を用いて、基礎となる特徴多様体をマイニングする。
画像分類実験は, 最先端手法と比較して, 提案手法の優位性を示した。
論文 参考訳(メタデータ) (2021-08-05T16:42:06Z) - A comprehensive comparative evaluation and analysis of Distributional
Semantic Models [61.41800660636555]
我々は、静的DSMによって生成されたり、BERTによって生成された文脈化されたベクトルを平均化して得られるような、型分布ベクトルの包括的評価を行う。
その結果、予測ベースモデルの優越性は現実よりも明らかであり、ユビキタスではないことが明らかとなった。
我々は認知神経科学からRepresentational similarity Analysis(RSA)の方法論を借りて、分布モデルによって生成された意味空間を検査する。
論文 参考訳(メタデータ) (2021-05-20T15:18:06Z) - Exploiting Non-Taxonomic Relations for Measuring Semantic Similarity and
Relatedness in WordNet [0.0]
本稿では,WordNetナレッジグラフなどの大規模リンクデータにおいて,あらゆる種類の非トキソノミック関係を利用する利点について検討する。
本稿では,新しい関係に基づく情報内容と非タキソノミックな重み付き経路に基づく総合的多関係手法を提案する。
論文 参考訳(メタデータ) (2020-06-22T09:59:39Z) - Pairwise Supervision Can Provably Elicit a Decision Boundary [84.58020117487898]
類似性学習は、パターンのペア間の関係を予測することによって有用な表現を引き出す問題である。
類似性学習は、決定境界を直接引き出すことによって二項分類を解くことができることを示す。
論文 参考訳(メタデータ) (2020-06-11T05:35:16Z) - Learning from Aggregate Observations [82.44304647051243]
本研究では,一組のインスタンスに監視信号が与えられる集合観察から学習する問題について検討する。
本稿では,多種多様な集合観測に適合する一般的な確率的枠組みを提案する。
単純な極大解は様々な微分可能なモデルに適用できる。
論文 参考訳(メタデータ) (2020-04-14T06:18:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。