論文の概要: Metaphors are a Source of Cross-Domain Misalignment of Large Reasoning Models
- arxiv url: http://arxiv.org/abs/2601.03388v1
- Date: Tue, 06 Jan 2026 19:50:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-08 18:12:46.067883
- Title: Metaphors are a Source of Cross-Domain Misalignment of Large Reasoning Models
- Title(参考訳): メタファは大きな共振モデルのドメイン間ミスソーシングの源である
- Authors: Zhibo Hu, Chen Wang, Yanfeng Shu, Hye-young Paik, Liming Zhu,
- Abstract要約: 学習データ中のメタファーとLLMの推論内容の誤調整度との間には,強い因果関係がみられた。
我々は,メタファと大規模推論モデルの大域的および局所的潜在的特徴の活性化との間には関連性があることを観察した。
- 参考スコア(独自算出の注目度): 12.039364223570479
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Earlier research has shown that metaphors influence human's decision making, which raises the question of whether metaphors also influence large language models (LLMs)' reasoning pathways, considering their training data contain a large number of metaphors. In this work, we investigate the problem in the scope of the emergent misalignment problem where LLMs can generalize patterns learned from misaligned content in one domain to another domain. We discover a strong causal relationship between metaphors in training data and the misalignment degree of LLMs' reasoning contents. With interventions using metaphors in pre-training, fine-tuning and re-alignment phases, models' cross-domain misalignment degrees change significantly. As we delve deeper into the causes behind this phenomenon, we observe that there is a connection between metaphors and the activation of global and local latent features of large reasoning models. By monitoring these latent features, we design a detector that predict misaligned content with high accuracy.
- Abstract(参考訳): 過去の研究では、メタファが人間の意思決定に影響を与えることが示されており、このことはメタファが大きな言語モデル(LLM)の推論経路にも影響を及ぼすかどうかという疑問を提起している。
本研究では、LLMが、あるドメイン内の不整合コンテンツから他のドメインへ学習したパターンを一般化できる創発的不整合問題の範囲内での問題について検討する。
学習データ中のメタファーとLLMの推論内容の誤調整度との間には,強い因果関係が発見された。
事前訓練、微調整、再調整フェーズにおけるメタファーを用いた介入により、モデルのドメイン間のミスアライメント度は大幅に変化する。
この現象の原因を深く掘り下げると、メタファーと大きな推論モデルの大域的および局所的潜在的特徴の活性化との間には関連性があることが分かる。
これらの潜伏した特徴をモニタリングすることにより、不一致コンテンツを高精度に予測する検出器を設計する。
関連論文リスト
- Analyzing Reasoning Consistency in Large Multimodal Models under Cross-Modal Conflicts [74.47786985522762]
テキスト慣性(textual inertia)と呼ばれる重要な障害モードを特定し、矛盾する視覚的証拠を無視しながら、モデルは間違ったテキストに盲目的に固執する傾向がある。
本稿では,多種多様なLMMの推論連鎖に摂動を構造的に注入するLogicGraph摂動プロトコルを提案する。
その結果,10%未満の症例で自己修正が成功し,主に視覚的テキスト誤りの伝播に寄与することが判明した。
論文 参考訳(メタデータ) (2026-01-07T16:39:34Z) - Unveiling LLMs' Metaphorical Understanding: Exploring Conceptual Irrelevance, Context Leveraging and Syntactic Influence [40.32545329527664]
大規模言語モデル(LLM)は、知識統合、文脈推論、創造的生成における高度な能力を示す。
本研究では,LLMのメタファ処理能力について3つの視点から検討する。
論文 参考訳(メタデータ) (2025-10-05T09:45:51Z) - How do Transformers Learn Implicit Reasoning? [67.02072851088637]
制御されたシンボリック環境下でトランスフォーマーをスクラッチからトレーニングすることで、暗黙のマルチホップ推論がどのように現れるかを研究する。
原子三重項によるトレーニングは必要ではなく学習を加速し,第2ホップの一般化は特定の構成構造へのクエリレベル露出に依存する。
論文 参考訳(メタデータ) (2025-05-29T17:02:49Z) - Landscape of Thoughts: Visualizing the Reasoning Process of Large Language Models [58.64449765678416]
思考のランドスケープ(LoT)を導入し、任意の複数選択データセット上で特定の推論手法で推論軌跡を検査する。
LoTは、強いモデルと弱いモデル、正解と誤解、および異なる推論タスクを区別する。
トラジェクトリの正しさを評価する軽量検証器にLoTを適用することで、この利点を実証する。
論文 参考訳(メタデータ) (2025-03-28T06:09:51Z) - Towards Multimodal Metaphor Understanding: A Chinese Dataset and Model for Metaphor Mapping Identification [9.08615188602226]
我々は、特定のターゲットドメインとソースドメインのアノテーションを含む中国のマルチモーダルメタファー広告データセット(CM3D)を開発した。
我々は,これらのマッピングを識別するための認知過程をシミュレートする,CPMMIM (Chain-of-NLP) Prompting-based Metaphor Mapping Identification Model) を提案する。
論文 参考訳(メタデータ) (2025-01-05T04:15:03Z) - A Dual-Perspective Metaphor Detection Framework Using Large Language Models [29.18537460293431]
メタファ検出のための新しいデュアルパースペクティブフレームワークであるDMDを提案する。
比喩理論の暗黙的および明示的な応用を利用して比喩検出においてLLMを導く。
従来の手法と比較して、我々のフレームワークはより透過的な推論プロセスを提供し、より信頼性の高い予測を提供する。
論文 参考訳(メタデータ) (2024-12-23T06:50:04Z) - Failure Modes of LLMs for Causal Reasoning on Narratives [51.19592551510628]
世界の知識と論理的推論の相互作用について検討する。
最先端の大規模言語モデル(LLM)は、しばしば表面的な一般化に依存している。
タスクの単純な再構成により、より堅牢な推論行動が引き起こされることを示す。
論文 参考訳(メタデータ) (2024-10-31T12:48:58Z) - Distributional Associations vs In-Context Reasoning: A Study of Feed-forward and Attention Layers [49.80959223722325]
本研究では,大規模言語モデルにおけるフィードフォワード層とアテンション層との区別について検討する。
フィードフォワード層はビッグラムのような単純な分布関係を学習する傾向があり、注意層は文脈内推論にフォーカスする。
論文 参考訳(メタデータ) (2024-06-05T08:51:08Z) - Dive into the Chasm: Probing the Gap between In- and Cross-Topic
Generalization [66.4659448305396]
本研究は,3つの探索型実験を用いて種々のLMを解析し,In- vs. クロストピック一般化ギャップの背景にある理由を明らかにした。
はじめに、一般化ギャップと埋め込み空間の堅牢性は、LM間で大きく異なることを示した。
論文 参考訳(メタデータ) (2024-02-02T12:59:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。