論文の概要: Improving the Diproche CNL through autoformalization via GPT-3
- arxiv url: http://arxiv.org/abs/2303.17513v1
- Date: Sun, 12 Mar 2023 20:11:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-02 18:11:21.600181
- Title: Improving the Diproche CNL through autoformalization via GPT-3
- Title(参考訳): GPT-3を介したオートフォーマライゼーションによるDiproche CNLの改良
- Authors: Merlin Carl
- Abstract要約: Diprocheシステムは、ドイツ語の制御された断片で書かれたテキストの自動証明チェッカーである。
本稿では,Diprocheの文脈において,大規模言語モデルによる自己形式化の促進の可能性について検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Diproche system is an automated proof checker for texts written in a
controlled fragment of German, designed for didactical applications in classes
introducing students to proofs for the first time. The first version of the
system used a controlled natural language for which a Prolog formalization
routine was written. In this paper, we explore the possibility of prompting
large language models for autoformalization in the context of Diproche, with
encouraging first results.
- Abstract(参考訳): diprocheシステムは、ドイツ語の制御された断片で書かれたテキストの自動証明チェッカーであり、初めて証明を学生に紹介する授業におけるディダクティカルな応用のために設計された。
最初のバージョンでは、prolog形式化ルーチンが書かれた制御された自然言語を使用していた。
本稿では,Diprocheの文脈において,大規模言語モデルによる自動形式化の促進の可能性について検討する。
関連論文リスト
- PIP: Parse-Instructed Prefix for Syntactically Controlled Paraphrase
Generation [61.05254852400895]
Parse-Instructed Prefix (PIP) は、大規模な事前学習言語モデルをチューニングするためのプレフィックスチューニングの新しい適応である。
このタスクの従来の微調整手法とは対照的に、PIPは学習可能なパラメータの10倍少ない計算効率の代替手段である。
論文 参考訳(メタデータ) (2023-05-26T07:42:38Z) - nl2spec: Interactively Translating Unstructured Natural Language to
Temporal Logics with Large Language Models [3.1143846686797314]
大規模言語モデル(LLM)を適用するためのフレームワークであるnl2specは、構造化されていない自然言語から正式な仕様を導出する。
本稿では,自然言語におけるシステム要求のあいまいさを検知し,解決する新たな手法を提案する。
ユーザは、これらのサブ翻訳を反復的に追加、削除、編集して、不正なフォーマル化を修正する。
論文 参考訳(メタデータ) (2023-03-08T20:08:53Z) - Recitation-Augmented Language Models [85.30591349383849]
知識集約型NLPタスクにおいて,RECITEは強力なパラダイムであることを示す。
具体的には、リサイクリングを中間ステップとして活用することにより、新しい最先端性能を実現することができることを示す。
論文 参考訳(メタデータ) (2022-10-04T00:49:20Z) - Autoformalization with Large Language Models [22.86710743804944]
自動形式化システムの成功は、形式検証、プログラム合成、人工知能の分野を前進させる可能性がある。
大規模な言語モデルがこの目標に向けて新たな展望を提供することを示す。
我々の手法はMiniF2F定理証明ベンチマークで新たな最先端結果をもたらし、証明レートを29.6%から35.2%に改善した。
論文 参考訳(メタデータ) (2022-05-25T09:53:30Z) - Detecting Text Formality: A Study of Text Classification Approaches [78.11745751651708]
本研究は,統計的,ニューラルベース,トランスフォーマーベースの機械学習手法に基づく形式性検出手法の体系的研究を初めて行う。
単言語,多言語,言語横断の3種類の実験を行った。
本研究は,モノリンガルおよび多言語形式分類タスクのためのトランスフォーマーベースモデルに対するChar BiLSTMモデルの克服を示す。
論文 参考訳(メタデータ) (2022-04-19T16:23:07Z) - Methods for Detoxification of Texts for the Russian Language [55.337471467610094]
我々は、攻撃的言語と戦うために、ロシア語のテキストを自動で解毒する研究を初めて紹介する。
我々は、局所的な修正を行う教師なしアプローチと、事前訓練された言語GPT-2モデルに基づく教師なしアプローチの2種類のモデルをテストする。
以上の結果から, 改良の余地はあるものの, 脱毒に有効であることが明らかとなった。
論文 参考訳(メタデータ) (2021-05-19T10:37:44Z) - An Unsupervised method for OCR Post-Correction and Spelling
Normalisation for Finnish [1.0957528713294875]
歴史的コーパスはOCR法で導入された誤りを含むことが知られている。
我々は、文字に基づくシーケンス・ツー・シーケンスNMT(neural machine translation)モデルをトレーニングするために、並列データの完全自動教師なし抽出に関する以前の研究に基づいて構築した。
本手法は,スペル正規化の利点を付加して,教師なしのままで性能が向上することを示す。
論文 参考訳(メタデータ) (2020-11-06T18:19:48Z) - SLM: Learning a Discourse Language Representation with Sentence
Unshuffling [53.42814722621715]
談話言語表現を学習するための新しい事前学習目的である文レベル言語モデリングを導入する。
本モデルでは,この特徴により,従来のBERTの性能が大幅に向上することを示す。
論文 参考訳(メタデータ) (2020-10-30T13:33:41Z) - Generative Language Modeling for Automated Theorem Proving [94.01137612934842]
この研究は、自動定理プロバーの人間に対する大きな制限が言語モデルから生成することで対処できる可能性によって動機づけられている。
本稿ではメタマス形式化言語のための自動証明と証明アシスタント GPT-f を提案し,その性能を解析する。
論文 参考訳(メタデータ) (2020-09-07T19:50:10Z) - Using Automated Theorem Provers for Mistake Diagnosis in the Didactics
of Mathematics [0.0]
Diproche システムは、Koepke や Schr"oder 、 Cramer などによる Naproche システムに似た初心者学生の運動の文脈に特化している。
本稿では,このようなアンチATPの概念を簡潔に解説し,その実装における基本技術について解説する。
論文 参考訳(メタデータ) (2020-02-12T16:36:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。