論文の概要: Exploring the Relationship between Analogy Identification and Sentence
Structure Encoding in Large Language Models
- arxiv url: http://arxiv.org/abs/2310.07818v1
- Date: Wed, 11 Oct 2023 18:59:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-14 14:14:37.900182
- Title: Exploring the Relationship between Analogy Identification and Sentence
Structure Encoding in Large Language Models
- Title(参考訳): 大規模言語モデルにおけるアナロジー同定と文構造符号化の関係の探索
- Authors: Thilini Wijesiriwardene, Ruwan Wickramarachchi, Aishwarya Naresh
Reganti, Vinija Jain, Aman Chadha, Amit Sheth, Amitava Das
- Abstract要約: 本稿では,複数の大言語モデルの文類似を識別する能力の関連について検討する。
構文構造をよりよく捉えたLLMは,文の類似を識別する能力も高いことがわかった。
- 参考スコア(独自算出の注目度): 7.716762867270514
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Identifying analogies plays a pivotal role in human cognition and language
proficiency. In the last decade, there has been extensive research on word
analogies in the form of ``A is to B as C is to D.'' However, there is a
growing interest in analogies that involve longer text, such as sentences and
collections of sentences, which convey analogous meanings. While the current
NLP research community evaluates the ability of Large Language Models (LLMs) to
identify such analogies, the underlying reasons behind these abilities warrant
deeper investigation. Furthermore, the capability of LLMs to encode both
syntactic and semantic structures of language within their embeddings has
garnered significant attention with the surge in their utilization. In this
work, we examine the relationship between the abilities of multiple LLMs to
identify sentence analogies, and their capacity to encode syntactic and
semantic structures. Through our analysis, we find that analogy identification
ability of LLMs is positively correlated with their ability to encode syntactic
and semantic structures of sentences. Specifically, we find that the LLMs which
capture syntactic structures better, also have higher abilities in identifying
sentence analogies.
- Abstract(参考訳): アナロジーの同定は、人間の認知と言語能力において重要な役割を果たす。
過去10年間、'a is to b as c is to d という形で単語の類似性に関する広範な研究が行われてきた。
しかし、「」は、類似の意味を伝える文や文集など、長い文を含むアナロジーへの関心が高まっている。
現在のNLP研究コミュニティは、そのような類似を識別するLarge Language Models (LLMs) の能力を評価しているが、これらの能力の根底にある理由はより深い調査である。
さらに,LLMが言語の構文的構造と意味的構造の両方をエンコードする能力は,その利用が急増する中で大きな注目を集めている。
本研究では,複数のLLMの文類似を識別する能力と,構文構造と意味構造を符号化する能力の関係について検討する。
分析の結果,LLMの類似認識能力は,文の構文的・意味的構造を符号化する能力と正の相関が認められた。
特に,構文構造をよりよく捉えたllmは,文の類似性を識別する能力も高いことが判明した。
関連論文リスト
- Do Large Language Models Mirror Cognitive Language Processing? [47.72734808139112]
大規模言語モデル(LLM)は、テキスト理解と論理的推論において顕著な能力を示した。
本研究では,LLM表現と人間の認知信号をブリッジして,LLMが認知言語処理をいかに効果的にシミュレートするかを評価する手法を提案する。
論文 参考訳(メタデータ) (2024-02-28T03:38:20Z) - Probing Structured Semantics Understanding and Generation of Language
Models via Question Answering [56.610044062739256]
本研究では,人間が構築した形式言語を用いて質問応答のタスクにおいて,大規模言語モデルが構造化意味論に対処する能力について検討する。
異なる大きさのモデルと異なる形式言語を用いた実験は、今日の最先端のLLMの論理形式に対する理解が全体的な人間レベルにアプローチできることを示している。
結果は、モデルが異なる形式言語にかなり敏感であることを示している。
論文 参考訳(メタデータ) (2024-01-11T09:27:50Z) - StoryAnalogy: Deriving Story-level Analogies from Large Language Models
to Unlock Analogical Understanding [72.38872974837462]
大規模ストーリーレベルの類似語コーパスを構築することにより,類似語を識別・生成する能力を評価する。
textscStory Analogyには、さまざまなドメインから24Kストーリーペアが含まれており、拡張された構造マッピング理論の2つの類似点に人間のアノテーションがある。
我々は、textscStory Analogyのデータは、大言語モデルにおけるアナログ生成の品質を向上させることができることを観察した。
論文 参考訳(メタデータ) (2023-10-19T16:29:23Z) - Semantic-Aware Contrastive Sentence Representation Learning with Large
Language Models [64.348539675761]
本稿では,セマンティック・アウェア・コントラッシブな文表現フレームワークであるSemCSRを提案する。
大規模言語モデル(LLM)の生成と評価機能を利用することで,高品質なNLI型コーパスを自動構築する。
論文 参考訳(メタデータ) (2023-10-17T03:21:43Z) - Why Do We Need Neuro-symbolic AI to Model Pragmatic Analogies? [6.8107181513711055]
知性の目印は、慣れ親しんだドメインを使用して、アナログ推論として知られる、あまり親しみのないドメインについての推論を行う能力である。
語彙的類推,構文的類推,意味的類推,実用的類推の4つの異なるレベルにおける類推について論じる。
我々は、統計とシンボルAIを組み合わせたニューロシンボリックAI技術を採用し、構造化されていないテキストの表現を通知し、関連コンテンツを強調し、拡張し、抽象化を提供し、マッピングプロセスを導く。
論文 参考訳(メタデータ) (2023-08-02T21:13:38Z) - ParaAMR: A Large-Scale Syntactically Diverse Paraphrase Dataset by AMR
Back-Translation [59.91139600152296]
ParaAMRは、抽象的な表現のバックトランスレーションによって生成される、大規模な構文的に多様なパラフレーズデータセットである。
そこで本研究では,ParaAMRを用いて文の埋め込み学習,構文的に制御されたパラフレーズ生成,数ショット学習のためのデータ拡張という,3つのNLPタスクを改善することができることを示す。
論文 参考訳(メタデータ) (2023-05-26T02:27:33Z) - ANALOGICAL -- A Novel Benchmark for Long Text Analogy Evaluation in
Large Language Models [1.4546044532817048]
ANALOGICALは、大規模言語モデルを本質的に評価する新しいベンチマークである。
以上の結果から, LLM が類型分類に進出する際, 類型分類を識別することがますます困難になっていることが明らかとなった。
論文 参考訳(メタデータ) (2023-05-08T21:12:20Z) - Syntactic Persistence in Language Models: Priming as a Window into
Abstract Language Representations [0.38498574327875945]
本稿では,現代のニューラル言語モデルが統語的プライミングにどの程度影響するかについて検討する。
プライミング強度と相互作用する様々な言語要因を制御できる大規模コーパスであるPrime-LMを新たに導入する。
単語と意味の相違があるが,同じ構文構造を持つ複数の文をプライミングした場合,驚くほど強いプライミング効果が報告される。
論文 参考訳(メタデータ) (2021-09-30T10:38:38Z) - A Comparative Study of Lexical Substitution Approaches based on Neural
Language Models [117.96628873753123]
本稿では,一般的なニューラル言語とマスキング言語モデルの大規模比較研究について述べる。
目的語に関する情報を適切に注入すれば,SOTA LMs/MLMsによって達成された既に競合する結果をさらに改善できることを示す。
論文 参考訳(メタデータ) (2020-05-29T18:43:22Z) - Logical Inferences with Comparatives and Generalized Quantifiers [18.58482811176484]
自然言語推論タスクでは,比較のための論理推論システムが十分に開発されていない。
英語の様々な比較構成をカテゴリー文法(CCG)を通して意味表現にマッピングする構成意味論を提案する。
このシステムは,最近のディープラーニングモデルと同様に,従来の論理ベースのシステムよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-05-16T11:11:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。