論文の概要: Formal Specifications from Natural Language
- arxiv url: http://arxiv.org/abs/2206.01962v1
- Date: Sat, 4 Jun 2022 10:49:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-07 17:36:26.286862
- Title: Formal Specifications from Natural Language
- Title(参考訳): 自然言語の形式的仕様
- Authors: Christopher Hahn, Frederik Schmitt, Julia J. Tillman, Niklas Metzger,
Julian Siber, Bernd Finkbeiner
- Abstract要約: 本稿では,自然言語を複雑な意味を持つ形式仕様に翻訳する言語モデルについて検討する。
特に、構造化英語文からなる3つのデータセット上で、オフザシェルフ言語モデルを微調整する。
- 参考スコア(独自算出の注目度): 3.1806743741013657
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the ability of language models to translate natural language into
formal specifications with complex semantics. In particular, we fine-tune
off-the-shelf language models on three datasets consisting of structured
English sentences and their corresponding formal representation: 1) First-order
logic (FOL), commonly used in software verification and theorem proving; 2)
linear-time temporal logic (LTL), which forms the basis for industrial hardware
specification languages; and 3) regular expressions (regex), frequently used in
programming and search. Our experiments show that, in these diverse domains,
the language models achieve competitive performance to the respective
state-of-the-art with the benefits of being easy to access, cheap to fine-tune,
and without a particular need for domain-specific reasoning. Additionally, we
show that the language models have a unique selling point: they benefit from
their generalization capabilities from pre-trained knowledge on natural
language, e.g., to generalize to unseen variable names.
- Abstract(参考訳): 自然言語を複雑な意味論を持つ形式的仕様に翻訳する言語モデルの能力について検討する。
特に、構造化英語文とそれに対応する形式表現からなる3つのデータセット上で、オフザシェルフ言語モデルを微調整する。
1) ソフトウェア検証及び定理証明に一般的に使用される一階述語論理(FOL)
2) 産業用ハードウェア仕様言語の基礎となる線形時間時相論理(LTL)
3)正規表現(regex)は、プログラミングや検索で頻繁に使用される。
これらの多種多様なドメインにおいて、言語モデルは、アクセスが容易で、安価で微調整が可能で、ドメイン固有の推論を特に必要とせずに、各最先端技術に対して競争力を発揮する。
さらに、言語モデルにはユニークなセールスポイントがあることを示し、自然言語に関する事前学習された知識(例えば、未知の変数名への一般化)から一般化能力の恩恵を受ける。
関連論文リスト
- Improving Arithmetic Reasoning Ability of Large Language Models through Relation Tuples, Verification and Dynamic Feedback [14.938401898546553]
本稿では,大規模言語モデルの推論ステップを表現するために,半構造化形式を提案する。
具体的には、人間だけでなく、マシンフレンドリで、自然言語よりも容易に検証できる関係を使います。
論文 参考訳(メタデータ) (2024-06-25T18:21:00Z) - How Proficient Are Large Language Models in Formal Languages? An In-Depth Insight for Knowledge Base Question Answering [52.86931192259096]
知識ベース質問回答(KBQA)は,知識ベースにおける事実に基づいた自然言語質問への回答を目的としている。
最近の研究は、論理形式生成のための大規模言語モデル(LLM)の機能を活用して性能を向上させる。
論文 参考訳(メタデータ) (2024-01-11T09:27:50Z) - Using Large Language Models for (De-)Formalization and Natural Argumentation Exercises for Beginner's Students [0.0]
現在開発中の2つのシステムは、自然言語と命題論理と一階述語論理の言語を相互に翻訳する際の(i)エクササイズの自動修正に大規模な言語モデルを使用している。
論文 参考訳(メタデータ) (2023-04-12T23:05:02Z) - nl2spec: Interactively Translating Unstructured Natural Language to
Temporal Logics with Large Language Models [3.1143846686797314]
大規模言語モデル(LLM)を適用するためのフレームワークであるnl2specは、構造化されていない自然言語から正式な仕様を導出する。
本稿では,自然言語におけるシステム要求のあいまいさを検知し,解決する新たな手法を提案する。
ユーザは、これらのサブ翻訳を反復的に追加、削除、編集して、不正なフォーマル化を修正する。
論文 参考訳(メタデータ) (2023-03-08T20:08:53Z) - Language Embeddings Sometimes Contain Typological Generalizations [0.0]
我々は、1295の言語における聖書翻訳の膨大な多言語データセットに基づいて、自然言語処理タスクのニューラルネットワークを訓練する。
学習された言語表現は、既存の類型データベースや、新しい量的構文的・形態的特徴セットと比較される。
いくつかの一般化は言語型学の伝統的な特徴に驚くほど近いが、ほとんどのモデルは以前の研究と同様に言語学的に意味のある一般化をしていないと結論付けている。
論文 参考訳(メタデータ) (2023-01-19T15:09:59Z) - Language Models as Inductive Reasoners [125.99461874008703]
本稿では,帰納的推論のための新しいパラダイム(タスク)を提案し,自然言語の事実から自然言語規則を誘導する。
タスクのための1.2kルールファクトペアを含むデータセットDEERを作成し,ルールと事実を自然言語で記述する。
我々は、事前訓練された言語モデルが自然言語の事実から自然言語規則をいかに誘導できるかを、初めてかつ包括的な分析を行う。
論文 参考訳(メタデータ) (2022-12-21T11:12:14Z) - CLSE: Corpus of Linguistically Significant Entities [58.29901964387952]
専門家が注釈を付けた言語学的に重要なエンティティ(CLSE)のコーパスをリリースする。
CLSEは74種類のセマンティックタイプをカバーし、航空券売機からビデオゲームまで様々なアプリケーションをサポートする。
言語的に代表されるNLG評価ベンチマークを,フランス語,マラティー語,ロシア語の3言語で作成する。
論文 参考訳(メタデータ) (2022-11-04T12:56:12Z) - Benchmarking Language Models for Code Syntax Understanding [79.11525961219591]
事前学習された言語モデルは、自然言語処理とプログラム理解の両方において素晴らしい性能を示している。
本研究では,プログラムの構文構造を特定するための,最先端の事前訓練モデルの最初の徹底的なベンチマークを行う。
この結果から,既存のプログラミング言語の事前学習手法の限界が指摘され,構文構造をモデル化することの重要性が示唆された。
論文 参考訳(メタデータ) (2022-10-26T04:47:18Z) - Transparency Helps Reveal When Language Models Learn Meaning [71.96920839263457]
合成データを用いた体系的な実験により,すべての表現が文脈に依存しない意味を持つ言語では,自己回帰型とマスキング型の両方の言語モデルが,表現間の意味的関係をエミュレートする。
自然言語に目を向けると、特定の現象(参照不透明さ)による実験は、現在の言語モデルが自然言語の意味論をうまく表現していないという証拠を増大させる。
論文 参考訳(メタデータ) (2022-10-14T02:35:19Z) - Constrained Language Models Yield Few-Shot Semantic Parsers [73.50960967598654]
我々は,事前学習された大規模言語モデルの利用を,少ない意味論として検討する。
意味構文解析の目標は、自然言語入力によって構造化された意味表現を生成することである。
言語モデルを用いて、入力を英語に似た制御されたサブ言語にパラフレーズし、対象の意味表現に自動的にマッピングする。
論文 参考訳(メタデータ) (2021-04-18T08:13:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。