論文の概要: Unveiling LLMs' Metaphorical Understanding: Exploring Conceptual Irrelevance, Context Leveraging and Syntactic Influence
- arxiv url: http://arxiv.org/abs/2510.04120v1
- Date: Sun, 05 Oct 2025 09:45:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.467864
- Title: Unveiling LLMs' Metaphorical Understanding: Exploring Conceptual Irrelevance, Context Leveraging and Syntactic Influence
- Title(参考訳): LLMのメタフォリカル理解:概念的無関係、文脈のレバレッジ、統語的影響を探る
- Authors: Fengying Ye, Shanshan Wang, Lidia S. Chao, Derek F. Wong,
- Abstract要約: 大規模言語モデル(LLM)は、知識統合、文脈推論、創造的生成における高度な能力を示す。
本研究では,LLMのメタファ処理能力について3つの視点から検討する。
- 参考スコア(独自算出の注目度): 40.32545329527664
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Metaphor analysis is a complex linguistic phenomenon shaped by context and external factors. While Large Language Models (LLMs) demonstrate advanced capabilities in knowledge integration, contextual reasoning, and creative generation, their mechanisms for metaphor comprehension remain insufficiently explored. This study examines LLMs' metaphor-processing abilities from three perspectives: (1) Concept Mapping: using embedding space projections to evaluate how LLMs map concepts in target domains (e.g., misinterpreting "fall in love" as "drop down from love"); (2) Metaphor-Literal Repository: analyzing metaphorical words and their literal counterparts to identify inherent metaphorical knowledge; and (3) Syntactic Sensitivity: assessing how metaphorical syntactic structures influence LLMs' performance. Our findings reveal that LLMs generate 15\%-25\% conceptually irrelevant interpretations, depend on metaphorical indicators in training data rather than contextual cues, and are more sensitive to syntactic irregularities than to structural comprehension. These insights underline the limitations of LLMs in metaphor analysis and call for more robust computational approaches.
- Abstract(参考訳): メタファー分析(Metaphor analysis)は、文脈や外部要因によって形成される複雑な言語現象である。
大言語モデル(LLM)は知識統合、文脈推論、創造的生成の高度な能力を示すが、メタファー理解のためのメカニズムはいまだ不十分である。
本研究では,LLMのメタファ・リテラル・レポジトリ(メタファ・リテラル・レポジトリ:メタメタファ・リポジトリ:メタファ・リテラル・リポジトリ:メタメタファ・リポジトリ:メタファ・リポジトリ:メタファ・メタファ・リポジトリ:メタファ・リポジトリ:メタファ・リポジトリ:メタファ・メタファ・リポジトリ:メタファ・メタファ・リポジトリ:メタファ・メタファ・リポジトリ:メタファ・メタファ・リポジショナリ(メタファ・リポジケーション:メタファ・リポジケーション:メタファ・メタファ・リポジトリー:メタファ・リポジトリ:メタファティカル・リポジケーション:メタファティカル・ナミカル・ナミカル・ナリファクション(メタファティブ・ナミティブ)とメタファ・ナミティブ・ナミティブ・ナミティブ(メタファティクス)の3つの視点から,LLMのメタファのメタファ(メタファクト・モデル)のメタファを抽出する。
その結果, LLMは概念的に無関係な解釈を生じさせ, 文脈的手がかりよりも学習データの比喩的指標に依存し, 構造的理解よりも構文的不規則に敏感であることがわかった。
これらの知見は比喩分析における LLM の限界を明らかにし、より堅牢な計算手法を求める。
関連論文リスト
- Metaphor identification using large language models: A comparison of RAG, prompt engineering, and fine-tuning [0.6524460254566904]
本研究では,大言語モデル(LLM)が全文でメタファ識別を自動化する可能性について検討する。
i) 検索拡張生成(RAG) モデルにコードブックを付与し,その規則や例に基づいて注釈を付けるように指示する手法, (ii) タスク固有の言語命令を設計する手法, (iii) ハンドコードされたテキストでモデルを訓練してパフォーマンスを最適化するファインチューニング,の3つの手法を比較した。
論文 参考訳(メタデータ) (2025-09-29T14:50:18Z) - Meanings are like Onions: a Layered Approach to Metaphor Processing [0.0]
意味を玉ねぎとして扱うメタファー処理のモデルを提案する。
第一段階では、メタファーは基本的な概念的要素によって注釈付けされる。
第2のレベルでは、概念の組み合わせをモデル化し、コンポーネントを創発的な意味にリンクする。
第3のレベルでは、話者意図、コミュニケーション機能、文脈効果を捉えるために、実践的な語彙を導入する。
論文 参考訳(メタデータ) (2025-07-14T14:56:46Z) - From Tokens to Thoughts: How LLMs and Humans Trade Compression for Meaning [63.25540801694765]
大きな言語モデル (LLMs) は言語能力を示すが、同じバランスをとれるかどうかは不明だ。
本稿では,LLMと人間を定量的に比較するために,Information Bottleneckの原理を適用した。
論文 参考訳(メタデータ) (2025-05-21T16:29:00Z) - Not Minds, but Signs: Reframing LLMs through Semiotics [0.0]
本稿では,Large Language Models (LLMs) に関するセミオティックな視点を論じる。
LLMが言語を理解したり、人間の思考をシミュレートしたりするのではなく、言語形式を再結合し、再テクスチャ化し、循環させることが主な機能であると提案する。
我々は文学、哲学、教育、文化生産の応用を探究する。
論文 参考訳(メタデータ) (2025-05-20T08:49:18Z) - The Stochastic Parrot on LLM's Shoulder: A Summative Assessment of Physical Concept Understanding [65.28200190598082]
本稿では、慎重に設計された物理概念理解タスクであるPhysorCoについて要約評価を行う。
我々のタスクは、物理的現象を抽象的に記述するグリッド形式入力の使用によって問題を緩和する。
1)GP-4oを含む最先端のLLM, 40%遅れの遅れ, 2) グリッドタスクで失敗するとオウム, o1 現象が LLM に存在するが, 自然言語で同じ概念を記述し, 認識することができる。
論文 参考訳(メタデータ) (2025-02-13T04:00:03Z) - Sparsity-Guided Holistic Explanation for LLMs with Interpretable
Inference-Time Intervention [53.896974148579346]
大規模言語モデル(LLM)は、様々な自然言語処理領域において前例のないブレークスルーを達成した。
LLMの謎的なブラックボックスの性質は、透過的で説明可能なアプリケーションを妨げる、解釈可能性にとって重要な課題である。
本稿では,LLMの全体的解釈を提供することを目的として,スポーシティ誘導技術に係わる新しい方法論を提案する。
論文 参考訳(メタデータ) (2023-12-22T19:55:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。