論文の概要: Natural Language Satisfiability: Exploring the Problem Distribution and Evaluating Transformer-based Language Models
- arxiv url: http://arxiv.org/abs/2508.17153v1
- Date: Sat, 23 Aug 2025 22:19:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.370926
- Title: Natural Language Satisfiability: Exploring the Problem Distribution and Evaluating Transformer-based Language Models
- Title(参考訳): 自然言語の満足度:問題分布の探索と変圧器に基づく言語モデルの評価
- Authors: Tharindu Madusanka, Ian Pratt-Hartmann, Riza Batista-Navarro,
- Abstract要約: 満足度問題は様々な次元によって異なり、TLMがそれらの解法を学ぶ能力に影響を及ぼす可能性がある。
計算複雑性のクラスや文法構成の異なる問題インスタンスが,TLMの推論規則を学習する能力にどのように影響するかを検討する。
- 参考スコア(独自算出の注目度): 15.8088859393756
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Efforts to apply transformer-based language models (TLMs) to the problem of reasoning in natural language have enjoyed ever-increasing success in recent years. The most fundamental task in this area to which nearly all others can be reduced is that of determining satisfiability. However, from a logical point of view, satisfiability problems vary along various dimensions, which may affect TLMs' ability to learn how to solve them. The problem instances of satisfiability in natural language can belong to different computational complexity classes depending on the language fragment in which they are expressed. Although prior research has explored the problem of natural language satisfiability, the above-mentioned point has not been discussed adequately. Hence, we investigate how problem instances from varying computational complexity classes and having different grammatical constructs impact TLMs' ability to learn rules of inference. Furthermore, to faithfully evaluate TLMs, we conduct an empirical study to explore the distribution of satisfiability problems.
- Abstract(参考訳): 近年,自然言語の推論問題にトランスフォーマーベース言語モデル(TLM)を適用しようとする試みは,ますます成功を収めている。
この領域の最も基本的な課題は、ほぼ全ての他の領域を削減できることであり、満足度を決定することである。
しかし、論理的な観点からは、満足度問題は様々な次元によって異なり、TLMがそれらの解法を学ぶ能力に影響を及ぼす可能性がある。
自然言語における満足度の問題は、それらが表現される言語フラグメントによって異なる計算複雑性クラスに属することができる。
従来の研究では、自然言語の満足度の問題が検討されてきたが、上記の点は十分に議論されていない。
そこで,計算複雑性のクラスや文法構成の異なる問題インスタンスが,TLMの推論規則を学習する能力にどのように影響するかを検討する。
さらに, TLMを忠実に評価するために, 満足度問題の分布を明らかにするための実証的研究を行った。
関連論文リスト
- From Logic to Language: A Trust Index for Problem Solving with LLMs [0.0]
本稿では,Large Language Models (LLM) の理解と対比を目的とした統合フレームワークを提案する。
形式言語と自然言語で対応可能な問題空間を定義し,記述する。
そこで, ベクトル値信頼度指数Qを導入し, 解の品質を反映し, 形式解のバイナリ正当性を自然言語解の連続性スペクトル特性と区別する。
論文 参考訳(メタデータ) (2025-07-21T19:50:45Z) - Evaluating LLMs' Mathematical Reasoning in Financial Document Question
Answering [53.56653281752486]
本研究では,大言語モデルによる4つの財務質問応答データセットの数学的推論について検討する。
数理推論のステップの数が増えるにつれて、テーブルの複雑さや性能の変化に対する感度に焦点をあてる。
半構造化文書に適した新しいプロンプト技術を導入する。
論文 参考訳(メタデータ) (2024-02-17T05:10:18Z) - Do Language Models Exhibit the Same Cognitive Biases in Problem Solving as Human Learners? [140.9751389452011]
本研究では,大言語モデル(LLM)の偏りを,算術語問題を解く際に,子どもに知られているものと関連づけて検討する。
我々は,これらの各テストに対して,問題特徴のきめ細かい制御を可能にするニューロシンボリックアプローチを用いて,新しい単語問題を生成する。
論文 参考訳(メタデータ) (2024-01-31T18:48:20Z) - How Proficient Are Large Language Models in Formal Languages? An In-Depth Insight for Knowledge Base Question Answering [52.86931192259096]
知識ベース質問回答(KBQA)は,知識ベースにおける事実に基づいた自然言語質問への回答を目的としている。
最近の研究は、論理形式生成のための大規模言語モデル(LLM)の機能を活用して性能を向上させる。
論文 参考訳(メタデータ) (2024-01-11T09:27:50Z) - Evaluating Transformer's Ability to Learn Mildly Context-Sensitive
Languages [6.227678387562755]
近年の研究では、非正規言語や文脈自由言語でさえ、自己意識は理論的に学習に限られていることが示唆されている。
様々な複雑さの文脈に敏感な言語を学習するトランスフォーマーの能力をテストする。
分析の結果,学習した自己注意パターンと表現が依存性関係をモデル化し,計数行動を示した。
論文 参考訳(メタデータ) (2023-09-02T08:17:29Z) - ChatABL: Abductive Learning via Natural Language Interaction with
ChatGPT [72.83383437501577]
大規模言語モデル(LLM)は、最近数学的な能力において大きな可能性を証明している。
LLMは現在、認識、言語理解、推論能力のブリッジングに困難を抱えている。
本稿では, LLMを帰納学習フレームワークに統合する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-04-21T16:23:47Z) - Can Transformers Reason in Fragments of Natural Language? [2.1485350418225244]
自然言語処理(NLP)に対する最先端のディープラーニングベースのアプローチは、自然言語テキストによる推論を含むさまざまな能力で評価されている。
本研究では, 満足度の問題がますます複雑化する自然言語の制御断片における, 公式な有効推論の検出について検討する。
論文 参考訳(メタデータ) (2022-11-10T08:46:53Z) - Pushing the Limits of Rule Reasoning in Transformers through Natural
Language Satisfiability [30.01308882849197]
本稿では,アルゴリズム推論データセットを作成するための新しい手法を提案する。
鍵となる考え方は、ハードプロポーズSAT問題の経験的なサンプリングや、言語に関する複雑性理論的な研究から洞察を得ることである。
十分なトレーニングデータを得た現在のトランスフォーマーは、結果のNLSat問題を解決するのに驚くほど堅牢であることがわかった。
論文 参考訳(メタデータ) (2021-12-16T17:47:20Z) - SML: a new Semantic Embedding Alignment Transformer for efficient
cross-lingual Natural Language Inference [71.57324258813674]
トランスフォーマーが質問応答、自然言語推論(NLI)、要約といった様々なタスクを精度良く実行できることは、現在この種のタスクに対処するための最良のパラダイムの1つとしてランク付けすることができる。
nliは、複雑な文を理解するための知識が必要であり、仮説と前提の関係を確立するため、これらのアーキテクチャをテストする最良のシナリオの1つである。
本稿では,自然言語推論のための多言語組込みを効率的にアライメントするための新しいアーキテクチャ siamese multilingual transformer を提案する。
論文 参考訳(メタデータ) (2021-03-17T13:23:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。