論文の概要: The Curious Case of Analogies: Investigating Analogical Reasoning in Large Language Models
- arxiv url: http://arxiv.org/abs/2511.20344v1
- Date: Tue, 25 Nov 2025 14:23:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-26 17:37:04.502036
- Title: The Curious Case of Analogies: Investigating Analogical Reasoning in Large Language Models
- Title(参考訳): アナロジの奇異な事例--大規模言語モデルにおけるアナロジ的推論の考察
- Authors: Taewhoo Lee, Minju Song, Chanwoong Yoon, Jungwoo Park, Jaewoo Kang,
- Abstract要約: 分析的推論は人間の認知の中心であり、様々な知的活動の重要な基盤となっている。
以前の研究で、LLMはタスクパターンや表面レベルの概念を表現できることが示されたが、これらのモデルが高レベルのリレーショナル概念をエンコードできるかどうかは不明だ。
- 参考スコア(独自算出の注目度): 22.609819017261632
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Analogical reasoning is at the core of human cognition, serving as an important foundation for a variety of intellectual activities. While prior work has shown that LLMs can represent task patterns and surface-level concepts, it remains unclear whether these models can encode high-level relational concepts and apply them to novel situations through structured comparisons. In this work, we explore this fundamental aspect using proportional and story analogies, and identify three key findings. First, LLMs effectively encode the underlying relationships between analogous entities; both attributive and relational information propagate through mid-upper layers in correct cases, whereas reasoning failures reflect missing relational information within these layers. Second, unlike humans, LLMs often struggle not only when relational information is missing, but also when attempting to apply it to new entities. In such cases, strategically patching hidden representations at critical token positions can facilitate information transfer to a certain extent. Lastly, successful analogical reasoning in LLMs is marked by strong structural alignment between analogous situations, whereas failures often reflect degraded or misplaced alignment. Overall, our findings reveal that LLMs exhibit emerging but limited capabilities in encoding and applying high-level relational concepts, highlighting both parallels and gaps with human cognition.
- Abstract(参考訳): 分析的推論は人間の認知の中心であり、様々な知的活動の重要な基盤となっている。
以前の研究で、LLMはタスクパターンや表面レベルの概念を表現できることが示されたが、これらのモデルが高レベルな関係の概念を符号化し、構造化された比較を通して新しい状況に適用できるかどうかは不明である。
本研究では、この基本的側面を比例的・物語的類似を用いて探求し、3つの重要な発見点を同定する。
まず、LLMは類似エンティティ間の基盤となる関係を効果的に符号化し、帰属的情報と関係的情報の両方が正しい場合、中間層を通して伝播する。
第2に、人間とは異なり、LLMはリレーショナル情報が欠けている場合だけでなく、新しいエンティティに適用しようとする場合にも苦労することが多い。
このような場合、重要なトークン位置で隠された表現を戦略的にパッチすることで、ある程度の情報転送が容易になる。
最後に、LLMにおける類似推論の成功は、類似状況間の強い構造的整合によって特徴づけられるが、失敗はしばしば劣化または不配置の整合を反映する。
以上の結果から,LLMは高レベルのリレーショナル概念を符号化・適用し,人間の認知との共通点とギャップを浮き彫りにしていることが明らかとなった。
関連論文リスト
- Pushing LLMs to Their Logical Reasoning Bound: The Role of Data Reasoning Intensity [59.27594125465172]
データ推論強度 (Data Reasoning Intensity, DRI) は, サンプルの潜在論理的推論複雑性を定量化する新しい指標である。
次に、学習データの論理的推論強度を体系的に強化する再認識最適化戦略を導入する。
論文 参考訳(メタデータ) (2025-09-29T14:20:04Z) - Disentangling Memory and Reasoning Ability in Large Language Models [97.26827060106581]
本稿では、複雑な推論プロセスを2つの異なる明確なアクションに分解する新しい推論パラダイムを提案する。
実験の結果, この分解によりモデル性能が向上し, 推論プロセスの解釈可能性も向上することがわかった。
論文 参考訳(メタデータ) (2024-11-20T17:55:38Z) - Failure Modes of LLMs for Causal Reasoning on Narratives [51.19592551510628]
世界の知識と論理的推論の相互作用について検討する。
最先端の大規模言語モデル(LLM)は、しばしば表面的な一般化に依存している。
タスクの単純な再構成により、より堅牢な推論行動が引き起こされることを示す。
論文 参考訳(メタデータ) (2024-10-31T12:48:58Z) - LLMs as Models for Analogical Reasoning [14.412456982731467]
アナロジカル推論は人間の認知と学習の基本である。
近年の研究では、大きな言語モデルが類似の推論タスクにおいて人間と一致することが示されている。
論文 参考訳(メタデータ) (2024-06-19T20:07:37Z) - Distributional Associations vs In-Context Reasoning: A Study of Feed-forward and Attention Layers [49.80959223722325]
本研究では,大規模言語モデルにおけるフィードフォワード層とアテンション層との区別について検討する。
フィードフォワード層はビッグラムのような単純な分布関係を学習する傾向があり、注意層は文脈内推論にフォーカスする。
論文 参考訳(メタデータ) (2024-06-05T08:51:08Z) - Concise and Organized Perception Facilitates Reasoning in Large Language Models [31.238220405009617]
推論に取り組むために大規模な言語モデル(LLM)をエクスプロイトすることは、注目を集めている。
複雑な論理的問題において満足な結果を達成することは依然として非常に困難であり、コンテキスト内の多くの前提とマルチホップ推論が特徴である。
本研究は,まず情報フローの観点からそのメカニズムを考察し,不規則な内容や無関係な内容を扱う際に,人間のような認知バイアスに類似した困難に直面することを明らかにする。
論文 参考訳(メタデータ) (2023-10-05T04:47:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。