論文の概要: Large Language Models on Lexical Semantic Change Detection: An
Evaluation
- arxiv url: http://arxiv.org/abs/2312.06002v1
- Date: Sun, 10 Dec 2023 21:26:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-12 17:26:02.161055
- Title: Large Language Models on Lexical Semantic Change Detection: An
Evaluation
- Title(参考訳): 語彙意味変化検出における大規模言語モデルの評価
- Authors: Ruiyu Wang, Matthew Choi
- Abstract要約: Lexical Semantic Change Detectionは、Large Language Models(LLM)が広く関与していない数少ない領域の1つである。
本研究は,3世代にわたる言語モデルにまたがる,新しいプロンプトソリューションと包括的評価を提示する。
- 参考スコア(独自算出の注目度): 0.8158530638728501
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Lexical Semantic Change Detection stands out as one of the few areas where
Large Language Models (LLMs) have not been extensively involved. Traditional
methods like PPMI, and SGNS remain prevalent in research, alongside newer
BERT-based approaches. Despite the comprehensive coverage of various natural
language processing domains by LLMs, there is a notable scarcity of literature
concerning their application in this specific realm. In this work, we seek to
bridge this gap by introducing LLMs into the domain of Lexical Semantic Change
Detection. Our work presents novel prompting solutions and a comprehensive
evaluation that spans all three generations of language models, contributing to
the exploration of LLMs in this research area.
- Abstract(参考訳): Lexical Semantic Change Detectionは、Large Language Models (LLM)が広く関与していない数少ない領域の1つである。
PPMIやSGNSといった従来の手法は、新しいBERTベースのアプローチとともに研究で広く使われている。
LLMによって様々な自然言語処理領域が包括的にカバーされているにもかかわらず、この特定の領域におけるそれらの適用に関する文献は顕著に乏しい。
本研究では,LLMをLexical Semantic Change Detectionの領域に導入することで,このギャップを埋めようとしている。
本研究は,3世代にわたる言語モデルにまたがる新しいプロンプトソリューションと包括的評価を提示し,本研究領域におけるLLMの探索に寄与する。
関連論文リスト
- Large Language Models are Easily Confused: A Quantitative Metric, Security Implications and Typological Analysis [5.029635172046762]
言語融合(Language Confusion)とは、大言語モデル(LLM)が所望の言語でもなく、文脈的に適切な言語でもテキストを生成する現象である。
我々は,この混乱を計測し定量化するために設計された,新しい計量であるLanguage Confusion Entropyを導入する。
論文 参考訳(メタデータ) (2024-10-17T05:43:30Z) - A Survey on Large Language Models with Multilingualism: Recent Advances and New Frontiers [48.314619377988436]
LLM(Large Language Models)の急速な開発は、自然言語処理における顕著な多言語機能を示している。
LLMのブレークスルーにもかかわらず、多言語シナリオの研究は依然として不十分である。
本調査は,多言語問題に対する研究コミュニティの取り組みを支援することを目的としており,LLMに基づく多言語自然言語処理における中核概念,鍵技術,最新の発展の包括的理解を提供する。
論文 参考訳(メタデータ) (2024-05-17T17:47:39Z) - Analyzing the Role of Semantic Representations in the Era of Large Language Models [104.18157036880287]
大規模言語モデル(LLM)の時代における意味表現の役割について検討する。
本稿では, AMRCoT と呼ばれる AMR-driven chain-of- Thought prompting 法を提案する。
AMRのどの入力例が役に立つかは予測できないが,複数単語の表現でエラーが発生する傾向にある。
論文 参考訳(メタデータ) (2024-05-02T17:32:59Z) - SambaLingo: Teaching Large Language Models New Languages [16.709876506515837]
我々は,LLMの新たな言語への適応に関する包括的調査を行う。
本研究は,語彙拡張や直接選好最適化など,このプロセスの主要なコンポーネントについて述べる。
9つの言語と2つのパラメータスケールでこれらの実験をスケールします。
論文 参考訳(メタデータ) (2024-04-08T19:48:36Z) - Multilingual Large Language Model: A Survey of Resources, Taxonomy and Frontiers [81.47046536073682]
本稿では,MLLM(Multilingual Large Language Model)文学における最近の進歩と新たなトレンドを要約する一貫した視点を提示する。
私たちの研究がコミュニティに迅速なアクセスを提供し、MLLMにおける画期的な研究を促進することを願っています。
論文 参考訳(メタデータ) (2024-04-07T11:52:44Z) - Language-Specific Neurons: The Key to Multilingual Capabilities in Large Language Models [117.20416338476856]
大規模言語モデル(LLM)は、特別にキュレートされた多言語並列コーパスで事前訓練されることなく、顕著な多言語機能を示す。
LLM内の言語特異的ニューロンを識別するための新しい検出手法である言語アクティベーション確率エントロピー(LAPE)を提案する。
以上の結果から,LLMが特定の言語を処理できる能力は,神経細胞のサブセットが少なすぎるためであることが示唆された。
論文 参考訳(メタデータ) (2024-02-26T09:36:05Z) - Unveiling Linguistic Regions in Large Language Models [49.298360366468934]
大規模言語モデル (LLM) は言語間アライメントと一般化能力を示す。
本稿では,LLMの言語能力に関するいくつかの調査を行う。
論文 参考訳(メタデータ) (2024-02-22T16:56:13Z) - Cross-lingual Editing in Multilingual Language Models [1.3062731746155414]
本稿では,言語間モデル編集(textbfXME)パラダイムを紹介し,事実を一つの言語で編集し,その後の更新伝搬を他の言語で観察する。
その結果,言語が2つの異なるスクリプトファミリーに属している場合を中心に,XME設定下での最先端のMETの性能制限が顕著に示された。
論文 参考訳(メタデータ) (2024-01-19T06:54:39Z) - A Comparative Study of Lexical Substitution Approaches based on Neural
Language Models [117.96628873753123]
本稿では,一般的なニューラル言語とマスキング言語モデルの大規模比較研究について述べる。
目的語に関する情報を適切に注入すれば,SOTA LMs/MLMsによって達成された既に競合する結果をさらに改善できることを示す。
論文 参考訳(メタデータ) (2020-05-29T18:43:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。