論文の概要: Prove Your Point!: Bringing Proof-Enhancement Principles to Argumentative Essay Generation
- arxiv url: http://arxiv.org/abs/2410.22642v1
- Date: Wed, 30 Oct 2024 02:13:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-31 14:28:55.515821
- Title: Prove Your Point!: Bringing Proof-Enhancement Principles to Argumentative Essay Generation
- Title(参考訳): Prove Your Point!: Proof-Enhancement Principles to Argumentative Essay Generation
- Authors: Ruiyu Xiao, Lei Wu, Yuhang Gou, Weinan Zhang, Ting Liu,
- Abstract要約: 議論的エッセイ生成(AEG)は、特定の議論のある話題や議論に関する完全なテキストを生成することを目的としている。
提案する2段階のフレームワークは,Proof-EnhancementとSelf-Enhancementである。
PESAは強力なベースラインモデルよりも論理的妥当性と説得性に優れた議論的エッセイを生成する。
- 参考スコア(独自算出の注目度): 27.117415957353245
- License:
- Abstract: Argumentative essay generation (AEG) aims to generate complete texts on specific controversial topics or debates. Although current AEG methods can generate individual opinions, they often overlook the high-level connections between these opinions. This often leads to the generated results being mired in logical confusion, unable to proof their own arguments effectively. The generated essay may present evidence that contradicts the claims or they may fail to assemble the claims into logical flow. In this paper, we present a unified two-stage framework: Proof-Enhancement and Self-Annotation (PESA) for AEG with a focus on logical enhancement. Specifically, we first construct pseudo-labels for logical information,claims and grounds, using a large language model. We then propose a tree planning approach that introduces proof principles and ensures logical consistency. Extensive experimental results show that, benefiting from proof principle guidance, PESA generates argumentative essays with better logical validity and persuasiveness than strong baseline models.
- Abstract(参考訳): AEG(Argumentative essay generation)は、特定の議論のある話題や議論に関する完全なテキストを生成することを目的としている。
現在のAIGメソッドは個々の意見を生成することができるが、これらの意見の間の高レベルなつながりをしばしば見落としている。
これはしばしば、生成された結果が論理的混乱に陥り、自分たちの議論を効果的に証明することができない。
生成されたエッセイは、クレームに矛盾する証拠を提示したり、クレームを論理フローに組み立てることに失敗する可能性がある。
本稿では,論理的拡張に着目した AEG 用 Proof-Enhancement と Self-Annotation (PESA) の2段階統合フレームワークを提案する。
具体的には,まず,大言語モデルを用いて論理情報,表現,接地のための擬似ラベルを構築する。
次に、証明原理を導入し、論理的整合性を確保するツリープランニング手法を提案する。
広範な実験結果から、PESAは証明原理の指導の恩恵を受け、強力なベースラインモデルよりも論理的妥当性と説得性に優れた議論的エッセイを生成することが示されている。
関連論文リスト
- CHECKWHY: Causal Fact Verification via Argument Structure [19.347690600431463]
CheckWhyは、新しい因果事実検証タスクに適したデータセットである。
CheckWhyは19K以上の「なぜ」クレーム・エビデンス・アグメント構造三重奏団で構成されており、サポート、反響、十分な情報ラベルがない。
論文 参考訳(メタデータ) (2024-08-20T15:03:35Z) - Lean-STaR: Learning to Interleave Thinking and Proving [53.923617816215774]
証明の各ステップに先立って,非公式な思考を生成するために,言語モデルをトレーニングするフレームワークであるLean-STaRを紹介します。
Lean-STaRは、Lean定理証明環境内のminiF2F-testベンチマークで最先端の結果を達成する。
論文 参考訳(メタデータ) (2024-07-14T01:43:07Z) - LogicBench: Towards Systematic Evaluation of Logical Reasoning Ability of Large Language Models [52.03659714625452]
最近開発された大規模言語モデル (LLM) は、幅広い言語理解タスクにおいて非常によく機能することが示されている。
しかし、それらは自然言語に対して本当に「理性」があるのだろうか?
この疑問は研究の注目を集めており、コモンセンス、数値、定性的など多くの推論技術が研究されている。
論文 参考訳(メタデータ) (2024-04-23T21:08:49Z) - Can LLMs Reason with Rules? Logic Scaffolding for Stress-Testing and Improving LLMs [87.34281749422756]
大規模言語モデル(LLM)は、様々な推論タスクにおいて、印象的な人間的なパフォーマンスを実現している。
しかし、その根底にある推論規則の熟達性は、人間の能力に欠ける。
本稿では,推論ルールベースであるULogicを構築するための,推論ルール生成フレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-18T03:38:51Z) - CASA: Causality-driven Argument Sufficiency Assessment [79.13496878681309]
ゼロショット因果関係に基づく議論十分性評価フレームワークであるCASAを提案する。
PSは前提イベントの導入が前提イベントと結論イベントの両方が欠落した場合の結論につながる可能性を測っている。
2つの論理的誤り検出データセットの実験により、CASAは不十分な議論を正確に識別することを示した。
論文 参考訳(メタデータ) (2024-01-10T16:21:18Z) - A Closer Look at the Self-Verification Abilities of Large Language Models in Logical Reasoning [73.77088902676306]
論理的推論の文脈において,大規模言語モデル(LLM)の自己検証能力について詳しく検討する。
本研究の主目的は,既存のLCMが誤った推論手順を正確に識別するのに苦労し,自己検証法の有効性を保証できないことにある。
論文 参考訳(メタデータ) (2023-11-14T07:13:10Z) - Predicting the Quality of Revisions in Argumentative Writing [2.0572032297930503]
チェーン・オブ・ソートは、ChatGPTで生成されたACをAR品質予測に役立てる。
2つのコーパス(注釈付き初等エッセイと既存の大学エッセイベンチマーク)の実験は、ベースラインよりも提案されたACの優位性を実証している。
論文 参考訳(メタデータ) (2023-06-01T13:39:33Z) - AQE: Argument Quadruplet Extraction via a Quad-Tagging Augmented
Generative Approach [40.510976649949576]
本稿では,AQE抽出課題を提案する。
AQEは、クレーム、エビデンス、エビデンスタイプ、スタンスという4つの議論的要素をオールインワンで抽出することができる。
そこで本研究では,四重項タグ付けモジュールを利用した新しい四重項タグ付け拡張手法を提案する。
論文 参考訳(メタデータ) (2023-05-31T14:35:53Z) - Conclusion-based Counter-Argument Generation [26.540485804067536]
現実世界の議論では、議論に対処する最も一般的な方法は、その主要なポイント、すなわち結論に対する推論である。
本稿では、入力引数の結論とカウンタの両方を生成するために共同で学習するマルチタスクアプローチを提案する。
論文 参考訳(メタデータ) (2023-01-24T10:49:01Z) - Generating Natural Language Proofs with Verifier-Guided Search [74.9614610172561]
NLProofS (Natural Language Proof Search) を提案する。
NLProofSは仮説に基づいて関連するステップを生成することを学習する。
EntailmentBank と RuleTaker の最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-05-25T02:22:30Z) - ProoFVer: Natural Logic Theorem Proving for Fact Verification [24.61301908217728]
本稿では,自然論理を用いた事実検証システムProoFVerを提案する。
証明の生成により、ProoFVerは説明可能なシステムになる。
証明により,人間がProoFVerの判断を正しくシミュレートできることが判明した。
論文 参考訳(メタデータ) (2021-08-25T17:23:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。