論文の概要: Conceptual Metaphor Theory as a Prompting Paradigm for Large Language Models
- arxiv url: http://arxiv.org/abs/2502.01901v1
- Date: Tue, 04 Feb 2025 00:26:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-05 15:00:12.510061
- Title: Conceptual Metaphor Theory as a Prompting Paradigm for Large Language Models
- Title(参考訳): 大規模言語モデルのための実証パラダイムとしての概念メタファー理論
- Authors: Oliver Kramer,
- Abstract要約: 大規模言語モデル(LLM)の拡張のためのフレームワークとしてメタファー概念理論(CMT)を紹介する。
CMTは比喩的マッピングを活用して抽象的推論を構造化し、複雑な概念を処理し説明するモデルの能力を向上させる。
我々は4つのネイティブモデル(Llama3.2、Phi3、Gemma2、Mistral)を、ドメイン固有の推論、創造的洞察、メタファ解釈にまたがるベンチマークタスクで、CMTが強化したモデルと比較する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: We introduce Conceptual Metaphor Theory (CMT) as a framework for enhancing large language models (LLMs) through cognitive prompting in complex reasoning tasks. CMT leverages metaphorical mappings to structure abstract reasoning, improving models' ability to process and explain intricate concepts. By incorporating CMT-based prompts, we guide LLMs toward more structured and human-like reasoning patterns. To evaluate this approach, we compare four native models (Llama3.2, Phi3, Gemma2, and Mistral) against their CMT-augmented counterparts on benchmark tasks spanning domain-specific reasoning, creative insight, and metaphor interpretation. Responses were automatically evaluated using the Llama3.3 70B model. Experimental results indicate that CMT prompting significantly enhances reasoning accuracy, clarity, and metaphorical coherence, outperforming baseline models across all evaluated tasks.
- Abstract(参考訳): 本稿では,概念メタファー理論(CMT)を,複雑な推論タスクにおける認知的促進を通じて,大規模言語モデル(LLM)を拡張するためのフレームワークとして紹介する。
CMTは比喩的マッピングを活用して抽象的推論を構造化し、複雑な概念を処理し説明するモデルの能力を向上させる。
CMTをベースとしたプロンプトを取り入れることで、より構造化され、人間に似た推論パターンにLCMを誘導する。
このアプローチを評価するために、ドメイン固有の推論、創造的洞察、メタファ解釈にまたがるベンチマークタスクにおいて、CMTで強化された4つのネイティブモデル(Llama3.2、Phi3、Gemma2、Mistral)を比較した。
応答はLlama3.3 70Bモデルで自動的に評価された。
実験結果から,CMTのプロンプトは推論精度,明快さ,比喩的コヒーレンスを著しく向上し,全ての評価課題においてベースラインモデルより優れていたことが示唆された。
関連論文リスト
- LogiDynamics: Unraveling the Dynamics of Logical Inference in Large Language Model Reasoning [49.58786377307728]
本稿では、類似推論のための制御された評価環境を導入することにより、探索的アプローチを採用する。
帰納的,帰納的,帰納的,帰納的な推論パイプラインの比較力学を解析する。
仮説選択や検証,洗練といった高度なパラダイムを考察し,論理的推論のスケールアップの可能性を明らかにする。
論文 参考訳(メタデータ) (2025-02-16T15:54:53Z) - Cognitive Paradigms for Evaluating VLMs on Visual Reasoning Task [3.2228025627337864]
機械の視覚的推論を改善するには、ビジョン・ランゲージ・モデル(VLM)がどのように複雑な視覚的パターンを処理し、解釈するかを深く理解する必要がある。
本研究は,自然画像に基づくボナード問題に基づくVLM推論を体系的に解析する,認知に着想を得た新しい評価フレームワークを提案する。
論文 参考訳(メタデータ) (2025-01-23T12:42:42Z) - A Dual-Perspective Metaphor Detection Framework Using Large Language Models [29.18537460293431]
メタファ検出のための新しいデュアルパースペクティブフレームワークであるDMDを提案する。
比喩理論の暗黙的および明示的な応用を利用して比喩検出においてLLMを導く。
従来の手法と比較して、我々のフレームワークはより透過的な推論プロセスを提供し、より信頼性の高い予測を提供する。
論文 参考訳(メタデータ) (2024-12-23T06:50:04Z) - A NotSo Simple Way to Beat Simple Bench [0.0]
本稿では,大規模言語モデル(LLM)における推論能力向上のための新しい枠組みを提案する。
モデル精度とロバスト性を改善するために,グローバルな整合性チェックと組み合わせたマルチステッププロンプト戦略を提案する。
クロードは論理的整合性を維持するのに優れ, GPT-4oは探索的創造性を示すが, 曖昧なプロンプトに苦しむ。
論文 参考訳(メタデータ) (2024-12-12T16:04:31Z) - Fact :Teaching MLLMs with Faithful, Concise and Transferable Rationales [102.54274021830207]
MLLMの教えに忠実で簡潔で伝達しやすい多モーダル論理を生成するために設計された新しいパラダイムであるFactを紹介する。
プログラミングパラダイムからエンドツーエンドパラダイムに転送可能な合理性をフィルタリングして、転送可能性を保証する。
また,画像とテキストの相関性が高いため,幻覚の低減も図っている。
論文 参考訳(メタデータ) (2024-04-17T07:20:56Z) - What if...?: Thinking Counterfactual Keywords Helps to Mitigate Hallucination in Large Multi-modal Models [50.97705264224828]
大規模マルチモーダルモデルに反現実的思考を組み込む新しい手法である反現実的インセプションを提案する。
我々は、より広い文脈のシーン理解にまたがる応答をモデルが関与し、生成することを目指している。
オープンソースモデルとプロプライエタリモデルの両方を含む様々なLMMの包括的分析は、反事実的思考が幻覚を著しく減少させることを裏付ける。
論文 参考訳(メタデータ) (2024-03-20T11:27:20Z) - Can Large Language Models Understand Context? [17.196362853457412]
本稿では,生成モデルの評価に適合する既存のデータセットを適応させることにより,文脈理解ベンチマークを提案する。
実験結果から, 事前学習された高密度モデルでは, 最先端の微調整モデルと比較して, よりニュアンスな文脈特徴の理解に苦慮していることが明らかとなった。
LLM圧縮は研究と実世界のアプリケーションの両方において重要度が高くなっているため、文脈学習環境下での量子化モデルの文脈理解を評価する。
論文 参考訳(メタデータ) (2024-02-01T18:55:29Z) - Interpreting Pretrained Language Models via Concept Bottlenecks [55.47515772358389]
事前訓練された言語モデル(PLM)は、様々な自然言語処理タスクにおいて大きな進歩を遂げてきた。
ブラックボックスの性質による解釈可能性の欠如は、責任ある実装に課題をもたらす。
本研究では,人間にとって理解しやすい高レベルで有意義な概念を用いて,PLMを解釈する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T20:41:18Z) - Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - Metaphor Generation with Conceptual Mappings [58.61307123799594]
我々は、関連する動詞を置き換えることで、リテラル表現を与えられた比喩文を生成することを目指している。
本稿では,認知領域間の概念マッピングを符号化することで生成過程を制御することを提案する。
教師なしCM-Lexモデルは,近年のディープラーニングメタファ生成システムと競合することを示す。
論文 参考訳(メタデータ) (2021-06-02T15:27:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。