論文の概要: Can Large Language Models generalize analogy solving like people can?
- arxiv url: http://arxiv.org/abs/2411.02348v1
- Date: Mon, 04 Nov 2024 18:18:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-05 14:42:58.356125
- Title: Can Large Language Models generalize analogy solving like people can?
- Title(参考訳): 大規模言語モデルは、できる限りの類似解を一般化できるか?
- Authors: Claire E. Stevenson, Alexandra Pafford, Han L. J. van der Maas, Melanie Mitchell,
- Abstract要約: 人には「体 : 足 : テーブル :」のような類似を解く能力が幼少期に出現する。
近年の研究では、大規模言語モデル(LLM)が様々な種類の類似を解くことができることが示されている。
- 参考スコア(独自算出の注目度): 46.02074643846298
- License:
- Abstract: When we solve an analogy we transfer information from a known context to a new one through abstract rules and relational similarity. In people, the ability to solve analogies such as "body : feet :: table : ?" emerges in childhood, and appears to transfer easily to other domains, such as the visual domain "( : ) :: < : ?". Recent research shows that large language models (LLMs) can solve various forms of analogies. However, can LLMs generalize analogy solving to new domains like people can? To investigate this, we had children, adults, and LLMs solve a series of letter-string analogies (e.g., a b : a c :: j k : ?) in the Latin alphabet, in a near transfer domain (Greek alphabet), and a far transfer domain (list of symbols). As expected, children and adults easily generalized their knowledge to unfamiliar domains, whereas LLMs did not. This key difference between human and AI performance is evidence that these LLMs still struggle with robust human-like analogical transfer.
- Abstract(参考訳): 類似を解く際には、抽象的な規則と関係的な類似性を通じて、既知のコンテキストから新しいコンテキストへ情報を転送する。
人によっては、「体 : feet :: table : ?」のような類似を解く能力は幼少期に出現し、視覚領域「( : ) :: < : ?」のような他の領域に容易に移行するように見える。
近年の研究では、大規模言語モデル(LLM)が様々な種類の類似を解くことができることが示されている。
しかし、LLMはアナログ解法を人のように新しい領域に一般化できるだろうか?
これを調べるために、ラテンアルファベット、近移動領域(ギリシャ語アルファベット)、遠移動領域(記号のリスト)において、子供、大人、およびLLMが一連の文字列の類似(eg , a b : a c :: j k : ?)を解いた。
予想通り、子供と大人は知識をよく知らない領域に一般化したが、LSMはそうではなかった。
人間とAIのパフォーマンスのこの重要な違いは、これらのLLMがいまだに堅牢な人間のようなアナログ転送に苦戦している証拠である。
関連論文リスト
- Do Large Language Models Solve ARC Visual Analogies Like People Do? [0.0]
我々は、新しいARCアイテム群において、人間と大規模言語モデル(LLM)のパフォーマンスを比較した。
以上の結果から, 子どもと大人の双方がこれらの課題においてLLMよりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2024-03-13T09:48:13Z) - ParallelPARC: A Scalable Pipeline for Generating Natural-Language Analogies [16.92480305308536]
複雑な段落に基づくアナロジーを作成するパイプラインを開発する。
我々は人によって検証された金のセットと銀のセットを自動生成する。
私たちは、銀のセットがトレーニングモデルに役立つことを実証します。
論文 参考訳(メタデータ) (2024-03-02T08:53:40Z) - Divergences between Language Models and Human Brains [63.405788999891335]
最近の研究は、言語モデルの内部表現(LM)を用いて脳信号が効果的に予測できることを示唆している。
我々は、LMと人間が言語をどのように表現し、使用するかに明確な違いがあることを示します。
我々は、社会的・情緒的知性と身体的常識という、LMによってうまく捉えられていない2つの領域を識別する。
論文 参考訳(メタデータ) (2023-11-15T19:02:40Z) - Do large language models solve verbal analogies like children do? [10.616401727158626]
本稿では,大言語モデル(LLMs)が,子どもの行動と類似した関連性を用いて,言語類似をA:B::C:で解決するか否かを検討する。
オランダの14,002人の7-12歳児がオランダ語で622の類似を解いた。
実験の結果, 言語類似性は, 子どもとCの関連性によって解決される傾向が示唆された。
論文 参考訳(メタデータ) (2023-10-31T11:49:11Z) - StoryAnalogy: Deriving Story-level Analogies from Large Language Models
to Unlock Analogical Understanding [72.38872974837462]
大規模ストーリーレベルの類似語コーパスを構築することにより,類似語を識別・生成する能力を評価する。
textscStory Analogyには、さまざまなドメインから24Kストーリーペアが含まれており、拡張された構造マッピング理論の2つの類似点に人間のアノテーションがある。
我々は、textscStory Analogyのデータは、大言語モデルにおけるアナログ生成の品質を向上させることができることを観察した。
論文 参考訳(メタデータ) (2023-10-19T16:29:23Z) - On the Relationship between Sentence Analogy Identification and Sentence
Structure Encoding in Large Language Models [7.716762867270514]
文の類似を捕捉するLarge Language Modelsの能力は,構文構造と意味構造をエンコードする能力によってどのように異なるかを検討する。
構文構造をよりよく捉えたLLMは,文の類似を識別する能力も高いことがわかった。
論文 参考訳(メタデータ) (2023-10-11T18:59:48Z) - Why Do We Need Neuro-symbolic AI to Model Pragmatic Analogies? [6.8107181513711055]
知性の目印は、慣れ親しんだドメインを使用して、アナログ推論として知られる、あまり親しみのないドメインについての推論を行う能力である。
語彙的類推,構文的類推,意味的類推,実用的類推の4つの異なるレベルにおける類推について論じる。
我々は、統計とシンボルAIを組み合わせたニューロシンボリックAI技術を採用し、構造化されていないテキストの表現を通知し、関連コンテンツを強調し、拡張し、抽象化を提供し、マッピングプロセスを導く。
論文 参考訳(メタデータ) (2023-08-02T21:13:38Z) - Do Models Explain Themselves? Counterfactual Simulatability of Natural
Language Explanations [62.61495090463084]
大規模言語モデル(LLM)は、人間の決定を説明するために人間を模倣するために訓練されている。
そこで本研究では,人間による多種多様なファクトファクトに対して,モデルの出力を正確に推定できるかどうかを検証した。
LLMの説明は精度が低く、精度は妥当性と相関しないことがわかった。
論文 参考訳(メタデータ) (2023-07-17T17:41:47Z) - Logic-LM: Empowering Large Language Models with Symbolic Solvers for
Faithful Logical Reasoning [101.26814728062065]
大規模言語モデル(LLM)は人間のような推論能力を示しているが、それでも複雑な論理的問題に悩まされている。
本稿では,論理問題の解法を改善するために,LLMとシンボリックソルバを統合した新しいフレームワークであるLogic-LMを紹介する。
論文 参考訳(メタデータ) (2023-05-20T22:25:38Z) - ANALOGYKB: Unlocking Analogical Reasoning of Language Models with A Million-scale Knowledge Base [51.777618249271725]
ANALOGYKBは、既存の知識グラフ(KGs)から派生した100万スケールのアナロジー知識ベースである
1)KGから直接抽出できる同一関係のアナロジー、2)大きな言語モデル(LLM)によって実現される選択とフィルタリングパイプラインと識別される類似関係のアナロジーである。
論文 参考訳(メタデータ) (2023-05-10T09:03:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。