論文の概要: Beneath Surface Similarity: Large Language Models Make Reasonable
Scientific Analogies after Structure Abduction
- arxiv url: http://arxiv.org/abs/2305.12660v1
- Date: Mon, 22 May 2023 03:04:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-23 18:58:27.511815
- Title: Beneath Surface Similarity: Large Language Models Make Reasonable
Scientific Analogies after Structure Abduction
- Title(参考訳): 表面の類似性-大規模言語モデルによる構造アブダクション後の科学的アナロジー
- Authors: Siyu Yuan, Jiangjie Chen, Xuyang Ge, Yanghua Xiao, Deqing Yang
- Abstract要約: 解析的推論により、一般的な関係構造に基づく親しみやすい概念に関連付けることで、新しい概念を理解することができる。
本稿ではまず,大規模言語モデル(LLM)の科学質問応答における類似性について検討する。
そこで我々は,認知心理学に基づく類推的構造推論課題を提案する。
- 参考スコア(独自算出の注目度): 16.30768397563412
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Analogical reasoning is essential for human cognition, allowing us to
comprehend new concepts by relating them to familiar ones based on common
relational structures. Previous work mainly focuses on word analogies, which do
not fully represent the analogical reasoning ability of language models (LMs)
aligning with humans. This paper first examines analogy prompting for large
language models (LLMs) in scientific question-answering tasks. Then we discover
that LLMs tend to ignore relational structures when performing word analogies,
casting doubt on their utility for evaluating analogical reasoning. For better
evaluation aligning with humans, we propose an analogical structure abduction
task based on cognitive psychology, which aims to abduct structures between two
systems to establish an analogy. Then we create a benchmark of scientific
analogical reasoning with structure abduction, SCAR, consisting of 400
scientific analogies across 13 domains for this task. Empirical results reveal
that LLMs struggle with this task, but the Chain-of-Thought (CoT) method with
background knowledge and explanations can improve their capability.
- Abstract(参考訳): アナロジカル推論は人間の認知に不可欠であり、共通関係構造に基づく親しみやすい概念に関連付けることによって、新しい概念を理解することができる。
従来の研究は主に、言語モデル(LM)が人間と整合するアナロジー推論能力を完全に表現していない単語類似に焦点を当てていた。
本稿ではまず,大規模言語モデル(LLM)の科学質問応答における類似性について検討する。
次に,単語アナロジー実行時,llmは関係構造を無視する傾向にあり,類似推論の評価に有用性に疑問を投げかける。
そこで我々は, 認知心理学に基づく類推的構造譲受課題を提案し, 類似性を確立するために, 2つのシステム間の構造を導出することを目的とした。
次に、このタスクのために13領域にわたる400の科学的なアナロジーからなるSCARを用いた科学的なアナロジー推論のベンチマークを作成する。
実証的な結果から,LLMはこの課題に苦しむことが分かるが,背景知識と説明を持つChain-of-Thought(CoT)手法は,その能力を向上させることができる。
関連論文リスト
- StoryAnalogy: Deriving Story-level Analogies from Large Language Models
to Unlock Analogical Understanding [72.38872974837462]
大規模ストーリーレベルの類似語コーパスを構築することにより,類似語を識別・生成する能力を評価する。
textscStory Analogyには、さまざまなドメインから24Kストーリーペアが含まれており、拡張された構造マッピング理論の2つの類似点に人間のアノテーションがある。
我々は、textscStory Analogyのデータは、大言語モデルにおけるアナログ生成の品質を向上させることができることを観察した。
論文 参考訳(メタデータ) (2023-10-19T16:29:23Z) - ARN: Analogical Reasoning on Narratives [13.707344123755126]
我々は、物語要素を用いて表面マッピングとシステムマッピングを作成する、アナロジーの支配的理論を運用するフレームワークを開発する。
すべてのLLMがほぼ類似点を認識できるが、最大でもゼロショット環境では極端に類似点に苦戦している。
論文 参考訳(メタデータ) (2023-10-02T08:58:29Z) - Why Do We Need Neuro-symbolic AI to Model Pragmatic Analogies? [6.8107181513711055]
知性の目印は、慣れ親しんだドメインを使用して、アナログ推論として知られる、あまり親しみのないドメインについての推論を行う能力である。
語彙的類推,構文的類推,意味的類推,実用的類推の4つの異なるレベルにおける類推について論じる。
我々は、統計とシンボルAIを組み合わせたニューロシンボリックAI技術を採用し、構造化されていないテキストの表現を通知し、関連コンテンツを強調し、拡張し、抽象化を提供し、マッピングプロセスを導く。
論文 参考訳(メタデータ) (2023-08-02T21:13:38Z) - DiPlomat: A Dialogue Dataset for Situated Pragmatic Reasoning [89.92601337474954]
プラグマティック推論は、実生活における会話でしばしば起こる暗黙の意味を解読する上で重要な役割を担っている。
そこで我々は,現実的な推論と会話理解の場所に関するマシンの能力のベンチマークを目的とした,新しい挑戦であるDiPlomatを紹介した。
論文 参考訳(メタデータ) (2023-06-15T10:41:23Z) - ANALOGYKB: Unlocking Analogical Reasoning of Language Models with A Million-scale Knowledge Base [51.777618249271725]
ANALOGYKBは、既存の知識グラフ(KGs)から派生した100万スケールのアナロジー知識ベースである
1)KGから直接抽出できる同一関係のアナロジー、2)大きな言語モデル(LLM)によって実現される選択とフィルタリングパイプラインと識別される類似関係のアナロジーである。
論文 参考訳(メタデータ) (2023-05-10T09:03:01Z) - Understanding Narratives through Dimensions of Analogy [17.68704739786042]
アナロジカル推論は、人間が二つの状況を接続し、その知識を慣れ親しんだものから新しいものへと一般化する強力なツールである。
アナログによる推論の可能性を持つ現代のスケーラブルなAI技術は、比例アナロジーの特別なケースにのみ適用されている。
本稿では,(1)認知科学研究の熟達した知見に基づいて6次元のアナロジーを形式化し,(2)それぞれの次元でファブルのコーパスを注釈し,(3)AI技術のスケーラブルな評価を可能にする複雑さを増す4つのタスクを定義することによって,ギャップを埋めることを目的とする。
論文 参考訳(メタデータ) (2022-06-14T20:56:26Z) - Exploring Discourse Structures for Argument Impact Classification [48.909640432326654]
本稿では、文脈経路に沿った2つの議論間の談話関係が、議論の説得力を特定する上で不可欠な要素であることを実証的に示す。
本研究では,文レベルの構造情報を大規模言語モデルから派生した文脈的特徴に注入・融合するDisCOCを提案する。
論文 参考訳(メタデータ) (2021-06-02T06:49:19Z) - Thinking About Causation: A Causal Language with Epistemic Operators [58.720142291102135]
我々はエージェントの状態を表すことで因果モデルの概念を拡張した。
対象言語の側面には、知識を表現する演算子や、新しい情報を観察する行為が追加されます。
我々は、論理の健全かつ完全な公理化を提供し、このフレームワークと因果的チーム意味論との関係について論じる。
論文 参考訳(メタデータ) (2020-10-30T12:16:45Z) - Neural Analogical Matching [8.716086137563243]
人間と類似することの重要性は、人工知能の幅広い分野における研究の活発な領域となった。
本稿では,構造的,記号的表現間の類似を学習するニューラルネットワークであるAnalogical Matching Networkを紹介する。
論文 参考訳(メタデータ) (2020-04-07T17:50:52Z) - Learning to See Analogies: A Connectionist Exploration [0.0]
この論文は、Analogatorと呼ばれるコンピュータプログラムの開発を通じて、学習と類推の統合を探求している。
多くの異なる類推問題を「見る」ことで、可能な解とともに、アナロゲータは徐々に新しい類推を創り出す能力を発展させている。
論文 参考訳(メタデータ) (2020-01-18T14:06:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。