論文の概要: NILE: Formalizing Natural-Language Descriptions of Formal Languages
- arxiv url: http://arxiv.org/abs/2602.19743v1
- Date: Mon, 23 Feb 2026 11:42:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.791787
- Title: NILE: Formalizing Natural-Language Descriptions of Formal Languages
- Title(参考訳): NILE: 形式言語による自然言語記述の形式化
- Authors: Tristan Kneisel, Marko Schmellenkamp, Fabian Vehlken, Thomas Zeume,
- Abstract要約: 本稿では,形式言語の自然言語記述を形式表現と比較し,意味的差異を説明する。
本研究では,ナイル表現が自然言語記述の構文構造を反映するようにデザインされた形式言語であるナイルの表現言語を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper explores how natural-language descriptions of formal languages can be compared to their formal representations and how semantic differences can be explained. This is motivated from educational scenarios where learners describe a formal language (presented, e.g., by a finite state automaton, regular expression, pushdown automaton, context-free grammar or in set notation) in natural language, and an educational support system has to (1) judge whether the natural-language description accurately describes the formal language, and to (2) provide explanations why descriptions are not accurate. To address this question, we introduce a representation language for formal languages, Nile, which is designed so that Nile expressions can mirror the syntactic structure of natural-language descriptions of formal languages. Nile is sufficiently expressive to cover a broad variety of formal languages, including all regular languages and fragments of context-free languages typically used in educational contexts. Generating Nile expressions that are syntactically close to natural-language descriptions then allows to provide explanations for inaccuracies in the descriptions algorithmically. In experiments on an educational data set, we show that LLMs can translate natural-language descriptions into equivalent, syntactically close Nile expressions with high accuracy - allowing to algorithmically provide explanations for incorrect natural-language descriptions. Our experiments also show that while natural-language descriptions can also be translated into regular expressions (but not context-free grammars), the expressions are often not syntactically close and thus not suitable for providing explanations.
- Abstract(参考訳): 本稿では,形式言語の自然言語記述を形式表現と比較し,意味的差異を説明する。
これは、自然言語における形式言語(有限状態オートマトン、正規表現、プッシュダウンオートマトン、文脈自由文法またはセット表記)を学習者が記述する教育シナリオから動機付けられ、(1)自然言語記述が形式言語を正確に記述しているかどうかを判断し、(2)説明が正確でない理由を説明する。
この問題に対処するために、我々は、正規言語の自然言語記述の構文構造を反映するようにデザインされた、正規言語の表現言語であるNileを導入する。
ナイル語は多種多様な形式言語をカバーするのに十分表現力があり、全ての正規言語や、一般に教育的文脈で使われる文脈自由言語の断片を含んでいる。
自然言語記述に構文的に近いナイル表現を生成することで、アルゴリズムによる記述の不正確な説明を提供することができる。
学習データセットの実験では,LLMが自然言語記述を等価で構文的にクローズなナイル表現に高い精度で翻訳し,不正確な自然言語記述の説明をアルゴリズムで提供できることが示されている。
我々の実験は、自然言語記述は正規表現にも変換可能であるが(文脈自由文法ではない)、その表現は構文的に近接せず、説明を提供するのに適していないことも示している。
関連論文リスト
- Linguistic Generalizations are not Rules: Impacts on Evaluation of LMs [13.700007279857081]
LMがいかにうまく一般化するかの言語学的評価は、自然言語は象徴的な規則によって生成されるという当然の事である。
ここでは、LMが象徴的なルールに従わなかったことはバグではなく機能かもしれないことを示唆する。
新しい発話は、柔軟性、相互関連性、文脈に依存した構成の組み合わせによって生成され、理解される。
論文 参考訳(メタデータ) (2025-02-18T17:40:20Z) - How Proficient Are Large Language Models in Formal Languages? An In-Depth Insight for Knowledge Base Question Answering [52.86931192259096]
知識ベース質問回答(KBQA)は,知識ベースにおける事実に基づいた自然言語質問への回答を目的としている。
最近の研究は、論理形式生成のための大規模言語モデル(LLM)の機能を活用して性能を向上させる。
論文 参考訳(メタデータ) (2024-01-11T09:27:50Z) - Trustworthy Formal Natural Language Specifications [3.8073142980733]
本稿では、自然言語の表現的サブセットで書かれた仕様を構築できることを示す。
モジュール的に形式化された英語のサブセットで仕様を提供する手段を実装し、それらを形式的なクレームに自動的に変換する。
我々は,各単語の解釈方法と文の構造を用いて意味を計算したことを示す証明証明書を作成した。
論文 参考訳(メタデータ) (2023-10-05T20:41:47Z) - Language Models as Inductive Reasoners [125.99461874008703]
本稿では,帰納的推論のための新しいパラダイム(タスク)を提案し,自然言語の事実から自然言語規則を誘導する。
タスクのための1.2kルールファクトペアを含むデータセットDEERを作成し,ルールと事実を自然言語で記述する。
我々は、事前訓練された言語モデルが自然言語の事実から自然言語規則をいかに誘導できるかを、初めてかつ包括的な分析を行う。
論文 参考訳(メタデータ) (2022-12-21T11:12:14Z) - Transparency Helps Reveal When Language Models Learn Meaning [71.96920839263457]
合成データを用いた体系的な実験により,すべての表現が文脈に依存しない意味を持つ言語では,自己回帰型とマスキング型の両方の言語モデルが,表現間の意味的関係をエミュレートする。
自然言語に目を向けると、特定の現象(参照不透明さ)による実験は、現在の言語モデルが自然言語の意味論をうまく表現していないという証拠を増大させる。
論文 参考訳(メタデータ) (2022-10-14T02:35:19Z) - Formal Specifications from Natural Language [3.1806743741013657]
本稿では,自然言語を複雑な意味を持つ形式仕様に翻訳する言語モデルについて検討する。
特に、構造化英語文からなる3つのデータセット上で、オフザシェルフ言語モデルを微調整する。
論文 参考訳(メタデータ) (2022-06-04T10:49:30Z) - AUTOLEX: An Automatic Framework for Linguistic Exploration [93.89709486642666]
本稿では言語学者による言語現象の簡潔な記述の発見と抽出を容易にするための自動フレームワークを提案する。
具体的には、この枠組みを用いて、形態的一致、ケースマーキング、単語順序の3つの現象について記述を抽出する。
本研究では,言語専門家の助けを借りて記述を評価し,人間の評価が不可能な場合に自動評価を行う手法を提案する。
論文 参考訳(メタデータ) (2022-03-25T20:37:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。