論文の概要: Using large language models for (de-)formalization and natural
argumentation exercises for beginner's students
- arxiv url: http://arxiv.org/abs/2304.06186v1
- Date: Wed, 12 Apr 2023 23:05:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-14 16:09:06.835510
- Title: Using large language models for (de-)formalization and natural
argumentation exercises for beginner's students
- Title(参考訳): デフォーマル化と自然議論演習のための大規模言語モデルを用いた初心者学生の学習
- Authors: Merlin Carl
- Abstract要約: 本稿では,大言語モデルであるtext-davinci-003 を用いて,自然言語と命題論理および一階述語論理の言語間を行き来する演習を自動修正するシステムについて述べる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We describe two systems that use text-davinci-003, a large language model,
for the automatized correction of (i) exercises in translating back and forth
between natural language and the languages of propositional logic and
first-order predicate logic and (ii) exercises in writing simple arguments in
natural language in non-mathematical scenarios.
- Abstract(参考訳): 大規模言語モデルであるtext-davinci-003 を用いて自動修正を行う2つのシステムについて述べる。
(i)自然言語と命題論理と一階述語論理の言語を前後に翻訳する演習
(ii)非数学的なシナリオで自然言語で単純な引数を書く練習。
関連論文リスト
- Improving Arithmetic Reasoning Ability of Large Language Models through Relation Tuples, Verification and Dynamic Feedback [14.938401898546553]
本稿では,大規模言語モデルの推論ステップを表現するために,半構造化形式を提案する。
具体的には、人間だけでなく、マシンフレンドリで、自然言語よりも容易に検証できる関係を使います。
論文 参考訳(メタデータ) (2024-06-25T18:21:00Z) - Learning Phonotactics from Linguistic Informants [54.086544221761486]
本モデルでは,情報理論的なポリシーの1つに従って,データポイントを反復的に選択または合成する。
提案モデルでは,情報提供者を問う項目の選択に使用する情報理論のポリシーが,完全教師付きアプローチに匹敵する,あるいはそれ以上の効率性が得られることがわかった。
論文 参考訳(メタデータ) (2024-05-08T00:18:56Z) - NLAS-multi: A Multilingual Corpus of Automatically Generated Natural
Language Argumentation Schemes [4.015890309289342]
本稿では,異なるトピックや言語における自然言語引数の自動生成のための効果的な方法論を提案する。
また、議論スキームの自動識別のための一組のソリッドベースラインと微調整モデルも提示する。
論文 参考訳(メタデータ) (2024-02-22T11:31:50Z) - Planning with Logical Graph-based Language Model for Instruction Generation [9.70880913062245]
本稿では,論理を言語モデルに注入するグラフベースの言語モデルであるLogical-GLMを提案する。
言語モデルトレーニングのガイドとして論理スケルトンを生成し,言語モデルにドメイン知識を注入する。
我々のアプローチは、内部化されたドメイン知識により、より正確な論理で命令文を生成することができる。
論文 参考訳(メタデータ) (2023-08-26T06:28:14Z) - Soft Language Clustering for Multilingual Model Pre-training [57.18058739931463]
本稿では,インスタンスを条件付きで符号化するためのフレキシブルガイダンスとして,コンテキスト的にプロンプトを検索するXLM-Pを提案する。
我々のXLM-Pは、(1)言語間における言語不変および言語固有知識の軽量なモデリングを可能にし、(2)他の多言語事前学習手法との容易な統合を可能にする。
論文 参考訳(メタデータ) (2023-06-13T08:08:08Z) - Improving the Diproche CNL through Autoformalization via Large Language Models [0.0]
Diprocheシステムは、ドイツ語の制御された断片で書かれたテキストの自動証明チェッカーである。
本稿では,Diprocheの文脈において,大規模言語モデルによる自己形式化の促進の可能性について検討する。
論文 参考訳(メタデータ) (2023-03-12T20:11:25Z) - Benchmarking Language Models for Code Syntax Understanding [79.11525961219591]
事前学習された言語モデルは、自然言語処理とプログラム理解の両方において素晴らしい性能を示している。
本研究では,プログラムの構文構造を特定するための,最先端の事前訓練モデルの最初の徹底的なベンチマークを行う。
この結果から,既存のプログラミング言語の事前学習手法の限界が指摘され,構文構造をモデル化することの重要性が示唆された。
論文 参考訳(メタデータ) (2022-10-26T04:47:18Z) - Formal Specifications from Natural Language [3.1806743741013657]
本稿では,自然言語を複雑な意味を持つ形式仕様に翻訳する言語モデルについて検討する。
特に、構造化英語文からなる3つのデータセット上で、オフザシェルフ言語モデルを微調整する。
論文 参考訳(メタデータ) (2022-06-04T10:49:30Z) - Multilingual Generative Language Models for Zero-Shot Cross-Lingual
Event Argument Extraction [80.61458287741131]
ゼロショット言語間イベント引数抽出(EAE)における多言語事前学習型生成言語モデルの活用について検討する。
EAEを言語生成タスクとして定式化することにより、イベント構造を効果的にエンコードし、引数間の依存関係をキャプチャする。
提案するモデルでは,多言語事前学習型生成言語モデルを用いて,入力文から抽出した引数で言語に依存しないテンプレートを補う文を生成する。
論文 参考訳(メタデータ) (2022-03-15T23:00:32Z) - Constrained Language Models Yield Few-Shot Semantic Parsers [73.50960967598654]
我々は,事前学習された大規模言語モデルの利用を,少ない意味論として検討する。
意味構文解析の目標は、自然言語入力によって構造化された意味表現を生成することである。
言語モデルを用いて、入力を英語に似た制御されたサブ言語にパラフレーズし、対象の意味表現に自動的にマッピングする。
論文 参考訳(メタデータ) (2021-04-18T08:13:06Z) - SLM: Learning a Discourse Language Representation with Sentence
Unshuffling [53.42814722621715]
談話言語表現を学習するための新しい事前学習目的である文レベル言語モデリングを導入する。
本モデルでは,この特徴により,従来のBERTの性能が大幅に向上することを示す。
論文 参考訳(メタデータ) (2020-10-30T13:33:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。