論文の概要: Systematic word meta-sense extension
- arxiv url: http://arxiv.org/abs/2311.13029v1
- Date: Tue, 21 Nov 2023 22:30:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-23 16:59:32.210277
- Title: Systematic word meta-sense extension
- Title(参考訳): 体系的単語メタセンス拡張
- Authors: Lei Yu
- Abstract要約: 従来の感覚間の規則性を一般化して新しい単語の意味を導き出すことは、図形表現などの非文語使用の自動処理に不可欠である。
そこで本稿では,言語モデルの単語意味を新しい意味領域に拡張する能力をテストするために,SWORMEと呼ばれる新しいタスクを導入する。
- 参考スコア(独自算出の注目度): 5.840896389155277
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The meaning of polysemous words often varies in a highly productive yet
predictable way. Generalizing the regularity between conventional senses to
derive novel word meaning is crucial for automated processing of non-literal
language uses such as figurative expressions. We introduce a novel task called
systematic word meta-sense extension (SWORME) to test and improve language
models' ability to extend word meaning to denote new semantic domains (also
called meta-senses) that bear regular semantic relations with existing senses.
We found that language models prefer incremental lexical semantic change toward
conceptually similar meta-senses such as logical metonymy, and are much worse
at predicting highly non-literal meaning extensions such as metaphors. We
propose a novel analogy-based method of word meaning extension, and show that
it effectively improves language model systematicity in making both gradual and
radical types of meta-sense extension. We further demonstrate that learning
systematic meta-sense extensions benefits language models on multiple
benchmarks of figurative language understanding.
- Abstract(参考訳): 多文語の意味は、しばしば非常に生産的で予測可能な方法で変化する。
従来の感覚間の規則性を一般化して新しい単語の意味を導き出すことは、図形表現などの非文語使用の自動処理に不可欠である。
既存の感覚と規則的な意味関係を持つ新しい意味領域(メタセンスとも呼ばれる)を示すために、単語の意味を拡張できる言語モデルの能力をテストし改善するための、体系的単語メタセンス拡張(SWORME)と呼ばれる新しいタスクを導入する。
言語モデルでは,概念的に類似したメタセンスへの語彙的意味変化が好まれる傾向にあり,メタファのような高度に非言語的意味拡張の予測がはるかに困難であることが判明した。
本稿では,新しい単語意味拡張のアナロジーに基づく手法を提案し,段階的および急進的なメタセンス拡張の2種類の言語モデル体系性を効果的に改善することを示す。
さらに, 体系的メタセンス拡張の学習は, フィギュラティブ言語理解の複数のベンチマークにおいて, 言語モデルに有益であることを示す。
関連論文リスト
- Tomato, Tomahto, Tomate: Measuring the Role of Shared Semantics among Subwords in Multilingual Language Models [88.07940818022468]
エンコーダのみの多言語言語モデル(mLM)におけるサブワード間の共有セマンティクスの役割を測る第一歩を踏み出した。
意味的に類似したサブワードとその埋め込みをマージして「意味トークン」を形成する。
グループ化されたサブワードの検査では 様々な意味的類似性を示します
論文 参考訳(メタデータ) (2024-11-07T08:38:32Z) - Using Synchronic Definitions and Semantic Relations to Classify Semantic Change Types [1.3436368800886478]
本稿では、同期語彙関係と単語の意味定義の両方から情報を活用するモデルを提案する。
具体的には,WordNet の構文定義と階層情報を用いて,Blank (1997) のセマンティックチェンジ型データセットのデジタル化バージョンでそれをテストする。
論文 参考訳(メタデータ) (2024-06-05T16:52:21Z) - Survey in Characterization of Semantic Change [0.1474723404975345]
言葉の意味を理解することは、異なる文化からの文章を解釈するのに不可欠である。
意味的変化は、計算言語学アルゴリズムの結果の品質に影響を与える可能性がある。
論文 参考訳(メタデータ) (2024-02-29T12:13:50Z) - Unsupervised Mapping of Arguments of Deverbal Nouns to Their
Corresponding Verbal Labels [52.940886615390106]
デバーバル名詞は英語の文章でよく使われる動詞で、出来事や行動やその議論を記述している。
名前付けされた構成の引数を扱うために存在する解決策は意味論的アノテーションに基づいている。
本稿では,より統語的アプローチを導入し,デバーバル名詞の議論を対応する動詞構成にマッピングする。
論文 参考訳(メタデータ) (2023-06-24T10:07:01Z) - Word sense extension [8.939269057094661]
本稿では,新しい文脈に向けて,単語が新たな感覚を創出することを可能にする,単語知覚拡張(WSE)のパラダイムを提案する。
本研究では,多文語型を異なる感覚を示す2つの擬似トークンに分割することで,単語拡張をシミュレートするフレームワークを開発する。
本フレームワークは,様々な種類の単語知覚拡張をサポートするために,言語モデル埋め込み空間を変換する学習手法と,連鎖の認知モデルを組み合わせる。
論文 参考訳(メタデータ) (2023-06-09T00:54:21Z) - LMs stand their Ground: Investigating the Effect of Embodiment in
Figurative Language Interpretation by Language Models [0.0]
表現言語は、その解釈が従来の順序や意味から逸脱しているため、言語モデルの課題である。
しかし、人間がメタファーを理解し解釈するのは、メタファーを具現化したメタファーから導き出すことができるためである。
本研究は、比喩文の動作がより具体化されている場合に、より大きな言語モデルが比喩文の解釈にいかに優れているかを示す。
論文 参考訳(メタデータ) (2023-05-05T11:44:12Z) - Shades of meaning: Uncovering the geometry of ambiguous word
representations through contextualised language models [6.760960482418417]
語彙的曖昧さは言語科学に深く永続的な挑戦をもたらす。
我々の研究は、一連のシミュレーションを通して、語彙的あいまいさの心理的理解に関する新たな洞察を提供する。
論文 参考訳(メタデータ) (2023-04-26T14:47:38Z) - Transparency Helps Reveal When Language Models Learn Meaning [71.96920839263457]
合成データを用いた体系的な実験により,すべての表現が文脈に依存しない意味を持つ言語では,自己回帰型とマスキング型の両方の言語モデルが,表現間の意味的関係をエミュレートする。
自然言語に目を向けると、特定の現象(参照不透明さ)による実験は、現在の言語モデルが自然言語の意味論をうまく表現していないという証拠を増大させる。
論文 参考訳(メタデータ) (2022-10-14T02:35:19Z) - Testing the Ability of Language Models to Interpret Figurative Language [69.59943454934799]
比喩的・比喩的な言語は言論において一般的である。
現代の言語モデルが非リテラルなフレーズをどの程度解釈できるかについては、未解決の疑問が残る。
ウィノグラードスタイルの非文字言語理解タスクであるFig-QAを紹介する。
論文 参考訳(メタデータ) (2022-04-26T23:42:22Z) - Lexical semantic change for Ancient Greek and Latin [61.69697586178796]
歴史的文脈における単語の正しい意味の連想は、ダイアクロニック研究の中心的な課題である。
我々は、動的ベイズ混合モデルに基づくセマンティック変化に対する最近の計算的アプローチに基づいて構築する。
本研究では,動的ベイズ混合モデルと最先端埋め込みモデルとのセマンティックな変化を系統的に比較する。
論文 参考訳(メタデータ) (2021-01-22T12:04:08Z) - Accurate Word Representations with Universal Visual Guidance [55.71425503859685]
本稿では,視覚指導から従来の単語埋め込みを視覚的に強調する視覚的表現法を提案する。
各単語が多様な関連画像に対応するマルチモーダルシードデータセットから,小型の単語画像辞書を構築する。
12の自然言語理解および機械翻訳タスクの実験により,提案手法の有効性と一般化能力がさらに検証された。
論文 参考訳(メタデータ) (2020-12-30T09:11:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。