論文の概要: On the Relationship between Sentence Analogy Identification and Sentence
Structure Encoding in Large Language Models
- arxiv url: http://arxiv.org/abs/2310.07818v3
- Date: Tue, 6 Feb 2024 02:24:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-07 20:01:28.979016
- Title: On the Relationship between Sentence Analogy Identification and Sentence
Structure Encoding in Large Language Models
- Title(参考訳): 大言語モデルにおける文のアナロジー同定と文構造符号化の関係について
- Authors: Thilini Wijesiriwardene, Ruwan Wickramarachchi, Aishwarya Naresh
Reganti, Vinija Jain, Aman Chadha, Amit Sheth, Amitava Das
- Abstract要約: 文の類似を捕捉するLarge Language Modelsの能力は,構文構造と意味構造をエンコードする能力によってどのように異なるかを検討する。
構文構造をよりよく捉えたLLMは,文の類似を識別する能力も高いことがわかった。
- 参考スコア(独自算出の注目度): 7.716762867270514
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The ability of Large Language Models (LLMs) to encode syntactic and semantic
structures of language is well examined in NLP. Additionally, analogy
identification, in the form of word analogies are extensively studied in the
last decade of language modeling literature. In this work we specifically look
at how LLMs' abilities to capture sentence analogies (sentences that convey
analogous meaning to each other) vary with LLMs' abilities to encode syntactic
and semantic structures of sentences. Through our analysis, we find that LLMs'
ability to identify sentence analogies is positively correlated with their
ability to encode syntactic and semantic structures of sentences. Specifically,
we find that the LLMs which capture syntactic structures better, also have
higher abilities in identifying sentence analogies.
- Abstract(参考訳): 言語の構文構造と意味構造を符号化するLarge Language Models (LLMs) の能力をNLPでよく検討した。
さらに、同義語識別は、言語モデリング文学の過去10年間に、単語類似の形で広く研究されている。
本研究は,文の構文的・意味的構造をエンコードするllmsの能力と,文の類似性(類似した意味を相互に伝達する意味)がどのように異なるかを検討する。
分析の結果,LLMの文類似を識別する能力は,文の構文的・意味的構造を符号化する能力と正の相関が認められた。
特に,構文構造をよりよく捉えたllmは,文の類似性を識別する能力も高いことが判明した。
関連論文リスト
- Do Large Language Models Mirror Cognitive Language Processing? [47.72734808139112]
大規模言語モデル(LLM)は、テキスト理解と論理的推論において顕著な能力を示した。
本研究では,LLM表現と人間の認知信号をブリッジして,LLMが認知言語処理をいかに効果的にシミュレートするかを評価する手法を提案する。
論文 参考訳(メタデータ) (2024-02-28T03:38:20Z) - Probing Structured Semantics Understanding and Generation of Language
Models via Question Answering [56.610044062739256]
本研究では,人間が構築した形式言語を用いて質問応答のタスクにおいて,大規模言語モデルが構造化意味論に対処する能力について検討する。
異なる大きさのモデルと異なる形式言語を用いた実験は、今日の最先端のLLMの論理形式に対する理解が全体的な人間レベルにアプローチできることを示している。
結果は、モデルが異なる形式言語にかなり敏感であることを示している。
論文 参考訳(メタデータ) (2024-01-11T09:27:50Z) - StoryAnalogy: Deriving Story-level Analogies from Large Language Models
to Unlock Analogical Understanding [72.38872974837462]
大規模ストーリーレベルの類似語コーパスを構築することにより,類似語を識別・生成する能力を評価する。
textscStory Analogyには、さまざまなドメインから24Kストーリーペアが含まれており、拡張された構造マッピング理論の2つの類似点に人間のアノテーションがある。
我々は、textscStory Analogyのデータは、大言語モデルにおけるアナログ生成の品質を向上させることができることを観察した。
論文 参考訳(メタデータ) (2023-10-19T16:29:23Z) - Semantic-Aware Contrastive Sentence Representation Learning with Large
Language Models [64.348539675761]
本稿では,セマンティック・アウェア・コントラッシブな文表現フレームワークであるSemCSRを提案する。
大規模言語モデル(LLM)の生成と評価機能を利用することで,高品質なNLI型コーパスを自動構築する。
論文 参考訳(メタデータ) (2023-10-17T03:21:43Z) - Why Do We Need Neuro-symbolic AI to Model Pragmatic Analogies? [6.8107181513711055]
知性の目印は、慣れ親しんだドメインを使用して、アナログ推論として知られる、あまり親しみのないドメインについての推論を行う能力である。
語彙的類推,構文的類推,意味的類推,実用的類推の4つの異なるレベルにおける類推について論じる。
我々は、統計とシンボルAIを組み合わせたニューロシンボリックAI技術を採用し、構造化されていないテキストの表現を通知し、関連コンテンツを強調し、拡張し、抽象化を提供し、マッピングプロセスを導く。
論文 参考訳(メタデータ) (2023-08-02T21:13:38Z) - ParaAMR: A Large-Scale Syntactically Diverse Paraphrase Dataset by AMR
Back-Translation [59.91139600152296]
ParaAMRは、抽象的な表現のバックトランスレーションによって生成される、大規模な構文的に多様なパラフレーズデータセットである。
そこで本研究では,ParaAMRを用いて文の埋め込み学習,構文的に制御されたパラフレーズ生成,数ショット学習のためのデータ拡張という,3つのNLPタスクを改善することができることを示す。
論文 参考訳(メタデータ) (2023-05-26T02:27:33Z) - ANALOGICAL -- A Novel Benchmark for Long Text Analogy Evaluation in
Large Language Models [1.4546044532817048]
ANALOGICALは、大規模言語モデルを本質的に評価する新しいベンチマークである。
以上の結果から, LLM が類型分類に進出する際, 類型分類を識別することがますます困難になっていることが明らかとなった。
論文 参考訳(メタデータ) (2023-05-08T21:12:20Z) - Syntactic Persistence in Language Models: Priming as a Window into
Abstract Language Representations [0.38498574327875945]
本稿では,現代のニューラル言語モデルが統語的プライミングにどの程度影響するかについて検討する。
プライミング強度と相互作用する様々な言語要因を制御できる大規模コーパスであるPrime-LMを新たに導入する。
単語と意味の相違があるが,同じ構文構造を持つ複数の文をプライミングした場合,驚くほど強いプライミング効果が報告される。
論文 参考訳(メタデータ) (2021-09-30T10:38:38Z) - A Comparative Study of Lexical Substitution Approaches based on Neural
Language Models [117.96628873753123]
本稿では,一般的なニューラル言語とマスキング言語モデルの大規模比較研究について述べる。
目的語に関する情報を適切に注入すれば,SOTA LMs/MLMsによって達成された既に競合する結果をさらに改善できることを示す。
論文 参考訳(メタデータ) (2020-05-29T18:43:22Z) - Logical Inferences with Comparatives and Generalized Quantifiers [18.58482811176484]
自然言語推論タスクでは,比較のための論理推論システムが十分に開発されていない。
英語の様々な比較構成をカテゴリー文法(CCG)を通して意味表現にマッピングする構成意味論を提案する。
このシステムは,最近のディープラーニングモデルと同様に,従来の論理ベースのシステムよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-05-16T11:11:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。