論文の概要: Large Language Models on Lexical Semantic Change Detection: An
Evaluation
- arxiv url: http://arxiv.org/abs/2312.06002v1
- Date: Sun, 10 Dec 2023 21:26:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-12 17:26:02.161055
- Title: Large Language Models on Lexical Semantic Change Detection: An
Evaluation
- Title(参考訳): 語彙意味変化検出における大規模言語モデルの評価
- Authors: Ruiyu Wang, Matthew Choi
- Abstract要約: Lexical Semantic Change Detectionは、Large Language Models(LLM)が広く関与していない数少ない領域の1つである。
本研究は,3世代にわたる言語モデルにまたがる,新しいプロンプトソリューションと包括的評価を提示する。
- 参考スコア(独自算出の注目度): 0.8158530638728501
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Lexical Semantic Change Detection stands out as one of the few areas where
Large Language Models (LLMs) have not been extensively involved. Traditional
methods like PPMI, and SGNS remain prevalent in research, alongside newer
BERT-based approaches. Despite the comprehensive coverage of various natural
language processing domains by LLMs, there is a notable scarcity of literature
concerning their application in this specific realm. In this work, we seek to
bridge this gap by introducing LLMs into the domain of Lexical Semantic Change
Detection. Our work presents novel prompting solutions and a comprehensive
evaluation that spans all three generations of language models, contributing to
the exploration of LLMs in this research area.
- Abstract(参考訳): Lexical Semantic Change Detectionは、Large Language Models (LLM)が広く関与していない数少ない領域の1つである。
PPMIやSGNSといった従来の手法は、新しいBERTベースのアプローチとともに研究で広く使われている。
LLMによって様々な自然言語処理領域が包括的にカバーされているにもかかわらず、この特定の領域におけるそれらの適用に関する文献は顕著に乏しい。
本研究では,LLMをLexical Semantic Change Detectionの領域に導入することで,このギャップを埋めようとしている。
本研究は,3世代にわたる言語モデルにまたがる新しいプロンプトソリューションと包括的評価を提示し,本研究領域におけるLLMの探索に寄与する。
関連論文リスト
- Analyzing the Role of Semantic Representations in the Era of Large Language Models [104.18157036880287]
大規模言語モデル(LLM)の時代における意味表現の役割について検討する。
本稿では, AMRCoT と呼ばれる AMR-driven chain-of- Thought prompting 法を提案する。
AMRのどの入力例が役に立つかは予測できないが,複数単語の表現でエラーが発生する傾向にある。
論文 参考訳(メタデータ) (2024-05-02T17:32:59Z) - SambaLingo: Teaching Large Language Models New Languages [16.709876506515837]
我々は,LLMの新たな言語への適応に関する包括的調査を行う。
本研究は,語彙拡張や直接選好最適化など,このプロセスの主要なコンポーネントについて述べる。
9つの言語と2つのパラメータスケールでこれらの実験をスケールします。
論文 参考訳(メタデータ) (2024-04-08T19:48:36Z) - Multilingual Large Language Model: A Survey of Resources, Taxonomy and Frontiers [81.47046536073682]
本稿では,MLLM(Multilingual Large Language Model)文学における最近の進歩と新たなトレンドを要約する一貫した視点を提示する。
私たちの研究がコミュニティに迅速なアクセスを提供し、MLLMにおける画期的な研究を促進することを願っています。
論文 参考訳(メタデータ) (2024-04-07T11:52:44Z) - Language-Specific Neurons: The Key to Multilingual Capabilities in Large
Language Models [122.25217086389425]
大規模言語モデル(LLM)は、特別にキュレートされた多言語並列コーパスで事前訓練されることなく、顕著な多言語機能を示す。
LLM内の言語特異的ニューロンを識別するための新しい検出手法である言語アクティベーション確率エントロピー(LAPE)を提案する。
以上の結果から,LLMが特定の言語を処理できる能力は,神経細胞のサブセットが少なすぎるためであることが示唆された。
論文 参考訳(メタデータ) (2024-02-26T09:36:05Z) - Unveiling Linguistic Regions in Large Language Models [52.88954646359624]
大規模言語モデル (LLM) は言語間アライメントと一般化能力を示す。
本稿では,LLMの言語能力に関するいくつかの調査を行う。
論文 参考訳(メタデータ) (2024-02-22T16:56:13Z) - Cross-lingual Editing in Multilingual Language Models [1.3062731746155414]
本稿では,言語間モデル編集(textbfXME)パラダイムを紹介し,事実を一つの言語で編集し,その後の更新伝搬を他の言語で観察する。
その結果,言語が2つの異なるスクリプトファミリーに属している場合を中心に,XME設定下での最先端のMETの性能制限が顕著に示された。
論文 参考訳(メタデータ) (2024-01-19T06:54:39Z) - Large Language Models for Generative Information Extraction: A Survey [93.28676955662002]
情報抽出は、平易な自然言語テキストから構造的知識を抽出することを目的としている。
生成型大規模言語モデル(LLM)は、テキストの理解と生成において顕著な能力を示した。
LLMは生成パラダイムに基づいたIEタスクに対して実行可能なソリューションを提供する。
論文 参考訳(メタデータ) (2023-12-29T14:25:22Z) - The Quo Vadis of the Relationship between Language and Large Language
Models [3.10770247120758]
LLM(Large Language Models)は、LLMを言語科学モデルとして採用することを奨励している。
透明性に欠ける科学的モデルの導入によって引き起こされる最も重要な理論的および経験的リスクを特定します。
現在の開発段階において、LLMは言語に関する説明をほとんど提供していないと結論付けている。
論文 参考訳(メタデータ) (2023-10-17T10:54:24Z) - LLMs4OL: Large Language Models for Ontology Learning [0.0]
大規模言語モデル(LLM)をオントロジー学習(OL)に用いるLLMs4OLアプローチを提案する。
LLMは自然言語処理の大幅な進歩を示し、異なる知識領域における複雑な言語パターンをキャプチャする能力を示している。
評価には、WordNetにおける語彙的知識、GeoNamesにおける地理的知識、UMLSにおける医学知識など、様々なオントロジ的知識のジャンルが含まれる。
論文 参考訳(メタデータ) (2023-07-31T13:27:21Z) - A Comparative Study of Lexical Substitution Approaches based on Neural
Language Models [117.96628873753123]
本稿では,一般的なニューラル言語とマスキング言語モデルの大規模比較研究について述べる。
目的語に関する情報を適切に注入すれば,SOTA LMs/MLMsによって達成された既に競合する結果をさらに改善できることを示す。
論文 参考訳(メタデータ) (2020-05-29T18:43:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。