論文の概要: Unveiling LLMs' Metaphorical Understanding: Exploring Conceptual Irrelevance, Context Leveraging and Syntactic Influence
- arxiv url: http://arxiv.org/abs/2510.04120v1
- Date: Sun, 05 Oct 2025 09:45:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.467864
- Title: Unveiling LLMs' Metaphorical Understanding: Exploring Conceptual Irrelevance, Context Leveraging and Syntactic Influence
- Title(参考訳): LLMのメタフォリカル理解:概念的無関係、文脈のレバレッジ、統語的影響を探る
- Authors: Fengying Ye, Shanshan Wang, Lidia S. Chao, Derek F. Wong,
- Abstract要約: 大規模言語モデル(LLM)は、知識統合、文脈推論、創造的生成における高度な能力を示す。
本研究では,LLMのメタファ処理能力について3つの視点から検討する。
- 参考スコア(独自算出の注目度): 40.32545329527664
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Metaphor analysis is a complex linguistic phenomenon shaped by context and external factors. While Large Language Models (LLMs) demonstrate advanced capabilities in knowledge integration, contextual reasoning, and creative generation, their mechanisms for metaphor comprehension remain insufficiently explored. This study examines LLMs' metaphor-processing abilities from three perspectives: (1) Concept Mapping: using embedding space projections to evaluate how LLMs map concepts in target domains (e.g., misinterpreting "fall in love" as "drop down from love"); (2) Metaphor-Literal Repository: analyzing metaphorical words and their literal counterparts to identify inherent metaphorical knowledge; and (3) Syntactic Sensitivity: assessing how metaphorical syntactic structures influence LLMs' performance. Our findings reveal that LLMs generate 15\%-25\% conceptually irrelevant interpretations, depend on metaphorical indicators in training data rather than contextual cues, and are more sensitive to syntactic irregularities than to structural comprehension. These insights underline the limitations of LLMs in metaphor analysis and call for more robust computational approaches.
- Abstract(参考訳): メタファー分析(Metaphor analysis)は、文脈や外部要因によって形成される複雑な言語現象である。
大言語モデル(LLM)は知識統合、文脈推論、創造的生成の高度な能力を示すが、メタファー理解のためのメカニズムはいまだ不十分である。
本研究では,LLMのメタファ・リテラル・レポジトリ(メタファ・リテラル・レポジトリ:メタメタファ・リポジトリ:メタファ・リテラル・リポジトリ:メタメタファ・リポジトリ:メタファ・リポジトリ:メタファ・メタファ・リポジトリ:メタファ・リポジトリ:メタファ・リポジトリ:メタファ・メタファ・リポジトリ:メタファ・メタファ・リポジトリ:メタファ・メタファ・リポジトリ:メタファ・メタファ・リポジショナリ(メタファ・リポジケーション:メタファ・リポジケーション:メタファ・メタファ・リポジトリー:メタファ・リポジトリ:メタファティカル・リポジケーション:メタファティカル・ナミカル・ナミカル・ナリファクション(メタファティブ・ナミティブ)とメタファ・ナミティブ・ナミティブ・ナミティブ(メタファティクス)の3つの視点から,LLMのメタファのメタファ(メタファクト・モデル)のメタファを抽出する。
その結果, LLMは概念的に無関係な解釈を生じさせ, 文脈的手がかりよりも学習データの比喩的指標に依存し, 構造的理解よりも構文的不規則に敏感であることがわかった。
これらの知見は比喩分析における LLM の限界を明らかにし、より堅牢な計算手法を求める。
関連論文リスト
- Concept Component Analysis: A Principled Approach for Concept Extraction in LLMs [51.378834857406325]
機械的解釈可能性(Mechanistic interpretability)は、大きな言語モデルからの抽出によって問題を緩和しようとする。
スパースオートエンコーダ (SAE) は、解釈可能・単意味的な概念を抽出するための一般的なアプローチである。
SAEは基本的な理論的曖昧さに悩まされており、LLM表現と人間解釈可能な概念との明確に定義された対応はいまだに不明である。
論文 参考訳(メタデータ) (2026-01-28T09:27:05Z) - Metaphor identification using large language models: A comparison of RAG, prompt engineering, and fine-tuning [0.6524460254566904]
本研究では,大言語モデル(LLM)が全文でメタファ識別を自動化する可能性について検討する。
i) 検索拡張生成(RAG) モデルにコードブックを付与し,その規則や例に基づいて注釈を付けるように指示する手法, (ii) タスク固有の言語命令を設計する手法, (iii) ハンドコードされたテキストでモデルを訓練してパフォーマンスを最適化するファインチューニング,の3つの手法を比較した。
論文 参考訳(メタデータ) (2025-09-29T14:50:18Z) - Understanding Textual Capability Degradation in Speech LLMs via Parameter Importance Analysis [54.53152524778821]
言語モデル(LLM)への音声の統合は、その能力を大幅に拡張したが、多くの場合、中核となるテキスト能力の弱さを犠牲にしている。
本稿では,パラメータ重要度推定に基づく分析フレームワークを提案する。
レイヤワイズ学習率スケジューリングとローランド適応(LoRA)の2つの緩和戦略について検討する。
実験結果から,両手法は完全な微調整よりもテキスト能力の維持が良好であるとともに,下流の質問応答性能も向上していることがわかった。
論文 参考訳(メタデータ) (2025-09-28T09:04:40Z) - Meanings are like Onions: a Layered Approach to Metaphor Processing [0.0]
意味を玉ねぎとして扱うメタファー処理のモデルを提案する。
第一段階では、メタファーは基本的な概念的要素によって注釈付けされる。
第2のレベルでは、概念の組み合わせをモデル化し、コンポーネントを創発的な意味にリンクする。
第3のレベルでは、話者意図、コミュニケーション機能、文脈効果を捉えるために、実践的な語彙を導入する。
論文 参考訳(メタデータ) (2025-07-14T14:56:46Z) - From Tokens to Thoughts: How LLMs and Humans Trade Compression for Meaning [63.25540801694765]
大きな言語モデル (LLMs) は言語能力を示すが、同じバランスをとれるかどうかは不明だ。
本稿では,LLMと人間を定量的に比較するために,Information Bottleneckの原理を適用した。
論文 参考訳(メタデータ) (2025-05-21T16:29:00Z) - Not Minds, but Signs: Reframing LLMs through Semiotics [0.0]
本稿では,Large Language Models (LLMs) に関するセミオティックな視点を論じる。
LLMが言語を理解したり、人間の思考をシミュレートしたりするのではなく、言語形式を再結合し、再テクスチャ化し、循環させることが主な機能であると提案する。
我々は文学、哲学、教育、文化生産の応用を探究する。
論文 参考訳(メタデータ) (2025-05-20T08:49:18Z) - The Stochastic Parrot on LLM's Shoulder: A Summative Assessment of Physical Concept Understanding [65.28200190598082]
本稿では、慎重に設計された物理概念理解タスクであるPhysorCoについて要約評価を行う。
我々のタスクは、物理的現象を抽象的に記述するグリッド形式入力の使用によって問題を緩和する。
1)GP-4oを含む最先端のLLM, 40%遅れの遅れ, 2) グリッドタスクで失敗するとオウム, o1 現象が LLM に存在するが, 自然言語で同じ概念を記述し, 認識することができる。
論文 参考訳(メタデータ) (2025-02-13T04:00:03Z) - Towards Multimodal Metaphor Understanding: A Chinese Dataset and Model for Metaphor Mapping Identification [9.08615188602226]
我々は、特定のターゲットドメインとソースドメインのアノテーションを含む中国のマルチモーダルメタファー広告データセット(CM3D)を開発した。
我々は,これらのマッピングを識別するための認知過程をシミュレートする,CPMMIM (Chain-of-NLP) Prompting-based Metaphor Mapping Identification Model) を提案する。
論文 参考訳(メタデータ) (2025-01-05T04:15:03Z) - Sparsity-Guided Holistic Explanation for LLMs with Interpretable
Inference-Time Intervention [53.896974148579346]
大規模言語モデル(LLM)は、様々な自然言語処理領域において前例のないブレークスルーを達成した。
LLMの謎的なブラックボックスの性質は、透過的で説明可能なアプリケーションを妨げる、解釈可能性にとって重要な課題である。
本稿では,LLMの全体的解釈を提供することを目的として,スポーシティ誘導技術に係わる新しい方法論を提案する。
論文 参考訳(メタデータ) (2023-12-22T19:55:58Z) - MAGNIFICo: Evaluating the In-Context Learning Ability of Large Language
Models to Generalize to Novel Interpretations [37.13707912132472]
人間は言語表現に新しい解釈を割り当てる素晴らしい能力を持っている。
大きな言語モデル(LLM)は知識の切り離しを持ち、何度も微調整を繰り返すのに費用がかかる。
我々は,LLMが文脈内学習を用いて新しい解釈を習得する能力を体系的に分析する。
論文 参考訳(メタデータ) (2023-10-18T00:02:38Z) - Metaphor Generation with Conceptual Mappings [58.61307123799594]
我々は、関連する動詞を置き換えることで、リテラル表現を与えられた比喩文を生成することを目指している。
本稿では,認知領域間の概念マッピングを符号化することで生成過程を制御することを提案する。
教師なしCM-Lexモデルは,近年のディープラーニングメタファ生成システムと競合することを示す。
論文 参考訳(メタデータ) (2021-06-02T15:27:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。