論文の概要: Why Do We Need Neuro-symbolic AI to Model Pragmatic Analogies?
- arxiv url: http://arxiv.org/abs/2308.01936v2
- Date: Tue, 12 Sep 2023 16:33:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-13 16:38:56.549648
- Title: Why Do We Need Neuro-symbolic AI to Model Pragmatic Analogies?
- Title(参考訳): 実用的なアナロジーをモデル化するにはなぜニューロシンボリックAIが必要なのか?
- Authors: Thilini Wijesiriwardene and Amit Sheth and Valerie L. Shalin and
Amitava Das
- Abstract要約: 知性の目印は、慣れ親しんだドメインを使用して、アナログ推論として知られる、あまり親しみのないドメインについての推論を行う能力である。
語彙的類推,構文的類推,意味的類推,実用的類推の4つの異なるレベルにおける類推について論じる。
我々は、統計とシンボルAIを組み合わせたニューロシンボリックAI技術を採用し、構造化されていないテキストの表現を通知し、関連コンテンツを強調し、拡張し、抽象化を提供し、マッピングプロセスを導く。
- 参考スコア(独自算出の注目度): 6.8107181513711055
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A hallmark of intelligence is the ability to use a familiar domain to make
inferences about a less familiar domain, known as analogical reasoning. In this
article, we delve into the performance of Large Language Models (LLMs) in
dealing with progressively complex analogies expressed in unstructured text. We
discuss analogies at four distinct levels of complexity: lexical analogies,
syntactic analogies, semantic analogies, and pragmatic analogies. As the
analogies become more complex, they require increasingly extensive, diverse
knowledge beyond the textual content, unlikely to be found in the lexical
co-occurrence statistics that power LLMs. To address this, we discuss the
necessity of employing Neuro-symbolic AI techniques that combine statistical
and symbolic AI, informing the representation of unstructured text to highlight
and augment relevant content, provide abstraction and guide the mapping
process. Our knowledge-informed approach maintains the efficiency of LLMs while
preserving the ability to explain analogies for pedagogical applications.
- Abstract(参考訳): 知性の要点は、親しみやすいドメインを使って、親しみないドメイン(アナロジー推論として知られる)を推論する能力である。
本稿では,非構造化テキストで表される漸進的に複雑な類似語を扱うために,Large Language Models(LLMs)の性能について検討する。
語彙の類似点,構文的類似点,意味的類似点,実用的類似点の4つの異なるレベルでの類似点について考察する。
類似語がより複雑になるにつれて、テキストの内容を超えてより広範囲で多様な知識が必要となり、llmを駆動する語彙共起統計には見当たらない。
そこで本稿では,統計とシンボルAIを組み合わせたニューロシンボリックAI技術の導入の必要性を論じ,非構造化テキストの表現によって関連コンテンツを強調・拡張し,抽象化とマッピングプロセスのガイドを行う。
我々の知識インフォームドアプローチはLLMの効率を維持しつつ、教育的応用のアナロジーを説明する能力を維持している。
関連論文リスト
- StoryAnalogy: Deriving Story-level Analogies from Large Language Models
to Unlock Analogical Understanding [72.38872974837462]
大規模ストーリーレベルの類似語コーパスを構築することにより,類似語を識別・生成する能力を評価する。
textscStory Analogyには、さまざまなドメインから24Kストーリーペアが含まれており、拡張された構造マッピング理論の2つの類似点に人間のアノテーションがある。
我々は、textscStory Analogyのデータは、大言語モデルにおけるアナログ生成の品質を向上させることができることを観察した。
論文 参考訳(メタデータ) (2023-10-19T16:29:23Z) - On the Relationship between Sentence Analogy Identification and Sentence
Structure Encoding in Large Language Models [7.716762867270514]
文の類似を捕捉するLarge Language Modelsの能力は,構文構造と意味構造をエンコードする能力によってどのように異なるかを検討する。
構文構造をよりよく捉えたLLMは,文の類似を識別する能力も高いことがわかった。
論文 参考訳(メタデータ) (2023-10-11T18:59:48Z) - Modeling Hierarchical Reasoning Chains by Linking Discourse Units and
Key Phrases for Reading Comprehension [80.99865844249106]
本稿では,論理的推論の基盤として,対話レベルと単語レベルの両方の文脈を扱う総合グラフネットワーク(HGN)を提案する。
具体的には、ノードレベルの関係とタイプレベルの関係は、推論過程におけるブリッジと解釈できるが、階層的な相互作用機構によってモデル化される。
論文 参考訳(メタデータ) (2023-06-21T07:34:27Z) - Beneath Surface Similarity: Large Language Models Make Reasonable
Scientific Analogies after Structure Abduction [46.2032673640788]
人間の認知における類推的推論の不可欠な役割は、共用関係構造を通して親しみやすい概念とリンクすることで、新しい概念を把握できることである。
この研究は、Large Language Models (LLM) がこれらの類似の基盤となる構造をしばしば見落としていることを示唆している。
本稿では,2つのシステム間の類似性を形成する構造を導出するための,認知心理学に基づく類推的構造推論の課題を紹介する。
論文 参考訳(メタデータ) (2023-05-22T03:04:06Z) - Scientific and Creative Analogies in Pretrained Language Models [24.86477727507679]
本稿では,BERT や GPT-2 などの大規模事前学習言語モデルにおけるアナログの符号化について検討する。
我々は,複数の属性の体系的マッピングと異種ドメイン間の関係構造を含む新しいアナロジーデータセットであるScientific and Creative Analogy dataset(SCAN)を紹介する。
現状のLMはこれらの複雑なアナロジータスクにおいて低性能を実現し、アナロジー理解によってもたらされる課題を浮き彫りにしている。
論文 参考訳(メタデータ) (2022-11-28T12:49:44Z) - Life is a Circus and We are the Clowns: Automatically Finding Analogies
between Situations and Processes [12.8252101640812]
多くの研究が、新しいドメインに適応できる非脆性システムにとって、アナログが鍵であることを示唆している。
アナロジーの重要性にもかかわらず、NLPコミュニティではほとんど注目されなかった。
論文 参考訳(メタデータ) (2022-10-21T18:54:17Z) - Understanding Narratives through Dimensions of Analogy [17.68704739786042]
アナロジカル推論は、人間が二つの状況を接続し、その知識を慣れ親しんだものから新しいものへと一般化する強力なツールである。
アナログによる推論の可能性を持つ現代のスケーラブルなAI技術は、比例アナロジーの特別なケースにのみ適用されている。
本稿では,(1)認知科学研究の熟達した知見に基づいて6次元のアナロジーを形式化し,(2)それぞれの次元でファブルのコーパスを注釈し,(3)AI技術のスケーラブルな評価を可能にする複雑さを増す4つのタスクを定義することによって,ギャップを埋めることを目的とする。
論文 参考訳(メタデータ) (2022-06-14T20:56:26Z) - A Neural Approach for Detecting Morphological Analogies [7.89271130004391]
分析比例は "A is to B as C is to D" という形の言明である
形態的類似を検出するための深層学習手法を提案する。
論文 参考訳(メタデータ) (2021-08-09T11:21:55Z) - Neuro-symbolic Architectures for Context Understanding [59.899606495602406]
本稿では,データ駆動型アプローチと知識駆動型アプローチの強みを組み合わせたフレームワークとして,ハイブリッドAI手法を提案する。
具体的には、知識ベースを用いて深層ニューラルネットワークの学習過程を導く方法として、ニューロシンボリズムの概念を継承する。
論文 参考訳(メタデータ) (2020-03-09T15:04:07Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z) - Learning from Learning Machines: Optimisation, Rules, and Social Norms [91.3755431537592]
経済的な実体の行動に最も類似したAIの領域は道徳的に良い意思決定の領域であるようだ。
近年のAIにおけるディープラーニングの成功は、そのような問題を解決するための明示的な仕様よりも暗黙的な仕様の方が優れていることを示唆している。
論文 参考訳(メタデータ) (2019-12-29T17:42:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。