論文の概要: Meta Semantics: Towards better natural language understanding and
reasoning
- arxiv url: http://arxiv.org/abs/2304.10663v1
- Date: Thu, 20 Apr 2023 22:16:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-24 16:25:03.175294
- Title: Meta Semantics: Towards better natural language understanding and
reasoning
- Title(参考訳): メタセマンティクス:自然言語理解と推論の改善に向けて
- Authors: Xiaolin Hu
- Abstract要約: 自然言語理解は、人工知能において最も難しいトピックの1つだ。
本稿では,oo-of-vocabulary(OOV)問題を解くための2つの戦略と,より優れた自然言語理解と推論のための意味モデルを提案する。
- 参考スコア(独自算出の注目度): 18.82964697994423
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Natural language understanding is one of the most challenging topics in
artificial intelligence. Deep neural network methods, particularly large
language module (LLM) methods such as ChatGPT and GPT-3, have powerful
flexibility to adopt informal text but are weak on logical deduction and suffer
from the out-of-vocabulary (OOV) problem. On the other hand, rule-based methods
such as Mathematica, Semantic web, and Lean, are excellent in reasoning but
cannot handle the complex and changeable informal text. Inspired by pragmatics
and structuralism, we propose two strategies to solve the OOV problem and a
semantic model for better natural language understanding and reasoning.
- Abstract(参考訳): 自然言語理解は、人工知能で最も難しいトピックの1つです。
深層ニューラルネットワークメソッド、特にchatgptやgpt-3のような大言語モジュール(llm)メソッドは、非公式テキストを採用するための強力な柔軟性を持つが、論理的な推論には弱く、語彙外問題(oov)に苦しむ。
一方、mathematica、semantic web、leanといったルールベースのメソッドは推論に優れていますが、複雑で変更可能な非公式なテキストを扱うことはできません。
実用主義と構造主義に着想を得て,oov問題を解くための2つの戦略と,自然言語理解と推論を改善するための意味モデルを提案する。
関連論文リスト
- Neurosymbolic Graph Enrichment for Grounded World Models [47.92947508449361]
複雑な問題に対処するために, LLM の反応性を向上し, 活用するための新しいアプローチを提案する。
我々は,大規模言語モデルの強みと構造的意味表現を組み合わせた,多モーダルで知識を付加した意味の形式表現を作成する。
非構造化言語モデルと形式的意味構造とのギャップを埋めることで、自然言語理解と推論における複雑な問題に対処するための新たな道を開く。
論文 参考訳(メタデータ) (2024-11-19T17:23:55Z) - INC-Math: Integrating Natural Language and Code for Enhanced Mathematical Reasoning in Large Language Models [21.082464220284127]
自然言語とコードを用いた数学的推論問題の解法に関する基礎的疑問を考察する。
その結果,LLMはコードよりも自然言語の推論が優れていることがわかった。
自然言語とコードは相補的な推論の形式として機能するが、特定のシナリオでは互いに負の形で影響を及ぼすことがある。
論文 参考訳(メタデータ) (2024-09-28T15:12:55Z) - Language Models can be Logical Solvers [99.40649402395725]
論理解法の推論過程を直接エミュレートする新しい言語モデルであるLoGiPTを導入する。
LoGiPTは、導出的ソルバの見えない推論過程を明らかにして精錬することから導かれる、新しく構築された命令チューニングデータセットに基づいて微調整される。
論文 参考訳(メタデータ) (2023-11-10T16:23:50Z) - ChatABL: Abductive Learning via Natural Language Interaction with
ChatGPT [72.83383437501577]
大規模言語モデル(LLM)は、最近数学的な能力において大きな可能性を証明している。
LLMは現在、認識、言語理解、推論能力のブリッジングに困難を抱えている。
本稿では, LLMを帰納学習フレームワークに統合する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-04-21T16:23:47Z) - Logical Reasoning over Natural Language as Knowledge Representation: A
Survey [43.29703101875716]
本稿では,自然言語を知識表現として,事前学習した言語モデルを推論として利用する論理推論の新しいパラダイムについて概説する。
この新たなパラダイムは、形式表現の多くの課題を軽減するだけでなく、エンドツーエンドのニューラルメソッドよりもアドバンテージを持つため、有望である。
論文 参考訳(メタデータ) (2023-03-21T16:56:05Z) - Language Models as Inductive Reasoners [125.99461874008703]
本稿では,帰納的推論のための新しいパラダイム(タスク)を提案し,自然言語の事実から自然言語規則を誘導する。
タスクのための1.2kルールファクトペアを含むデータセットDEERを作成し,ルールと事実を自然言語で記述する。
我々は、事前訓練された言語モデルが自然言語の事実から自然言語規則をいかに誘導できるかを、初めてかつ包括的な分析を行う。
論文 参考訳(メタデータ) (2022-12-21T11:12:14Z) - Learning Symbolic Rules for Reasoning in Quasi-Natural Language [74.96601852906328]
我々は,ルールを手作業で構築することなく,自然言語入力で推論できるルールベースシステムを構築した。
本稿では,形式論理文と自然言語文の両方を表現可能な"Quasi-Natural"言語であるMetaQNLを提案する。
提案手法は,複数の推論ベンチマークにおける最先端の精度を実現する。
論文 参考訳(メタデータ) (2021-11-23T17:49:00Z) - Target Languages (vs. Inductive Biases) for Learning to Act and Plan [13.820550902006078]
私は、ニューラルアーキテクチャのバイアスから表現が現れるのではなく、既知のセマンティクスを持つ特定のターゲット言語で学習される、異なる学習アプローチを明確に表現します。
論文と講演の目的は、これらのアイデアを明確化し、対象言語の設計が不可欠である広い文脈に配置し、それらを行動と計画の学習の文脈で説明することである。
論文 参考訳(メタデータ) (2021-09-15T10:24:13Z) - Semantics-Aware Inferential Network for Natural Language Understanding [79.70497178043368]
このようなモチベーションを満たすために,セマンティックス対応推論ネットワーク(SAIN)を提案する。
SAINの推論モジュールは、明示的な文脈的セマンティクスを補完的な入力として、セマンティクス上の一連の推論ステップを可能にする。
本モデルでは,機械読解や自然言語推論など11タスクの大幅な改善を実現している。
論文 参考訳(メタデータ) (2020-04-28T07:24:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。