論文の概要: DayDreamer at CQs-Gen 2025: Generating Critical Questions through Argument Scheme Completion
- arxiv url: http://arxiv.org/abs/2505.15554v1
- Date: Wed, 21 May 2025 14:15:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-22 15:42:59.686019
- Title: DayDreamer at CQs-Gen 2025: Generating Critical Questions through Argument Scheme Completion
- Title(参考訳): CQs-Gen 2025のDayDreamer: argument Scheme Completionを通じて重要な質問を生成する
- Authors: Wendi Zhou, Ameer Saadat-Yazdi, Nadin Kökciyan,
- Abstract要約: 本稿では,ArgMining 2025におけるCQ(Critical Questions Generation)共有タスクについて紹介する。
提案手法は,大規模言語モデル (LLM) とチェーン・オブ・シントを利用して,ウォルトンの議論スキームに導かれる重要な質問を生成する。
パイプラインは最終テストセットで競合的なパフォーマンスを達成し、議論的なテキストを与えられた批判的思考を育み、欠落や不正なクレームを検出する可能性を示しています。
- 参考スコア(独自算出の注目度): 3.740062413173584
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Critical questions are essential resources to provoke critical thinking when encountering an argumentative text. We present our system for the Critical Questions Generation (CQs-Gen) Shared Task at ArgMining 2025. Our approach leverages large language models (LLMs) with chain-of-thought prompting to generate critical questions guided by Walton's argumentation schemes. For each input intervention, we conversationally prompt LLMs to instantiate the corresponding argument scheme template to first obtain structured arguments, and then generate relevant critical questions. Following this, we rank all the available critical questions by prompting LLMs to select the top 3 most helpful questions based on the original intervention text. This combination of structured argumentation theory and step-by-step reasoning enables the generation of contextually relevant and diverse critical questions. Our pipeline achieves competitive performance in the final test set, showing its potential to foster critical thinking given argumentative text and detect missing or uninformed claims. Code available at \href{https://git.ecdf.ed.ac.uk/s2236454/DayDreamer-CQs-Gen}{DayDreamer}.
- Abstract(参考訳): 批判的な質問は、議論的な文章に遭遇する際に批判的な思考を引き起こすための必須のリソースである。
本稿では,ArgMining 2025におけるCQ(Critical Questions Generation)共有タスクについて紹介する。
提案手法は,大規模言語モデル (LLM) とチェーン・オブ・シントを利用して,ウォルトンの議論スキームに導かれる重要な質問を生成する。
各入力介入に対して、LLMに対して、対応する引数スキームテンプレートをインスタンス化し、まず構造化された引数を取得し、その後、関連するクリティカルな質問を生成するように指示する。
以下に、LLMに対して、元の介入テキストに基づいて、最も有用な3つの質問を選択するよう促すことにより、利用可能なすべてのクリティカルな質問をランク付けする。
この構造化議論理論とステップ・バイ・ステップの推論の組み合わせは、文脈的に関係があり多様な批判的な質問を生成することを可能にする。
パイプラインは最終テストセットで競合的なパフォーマンスを達成し、議論的なテキストを与えられた批判的思考を育み、欠落や不正なクレームを検出する可能性を示しています。
コードは \href{https://git.ecdf.ed.ac.uk/s2236454/DayDreamer-CQs-Gen}{DayDreamer} で公開されている。
関連論文リスト
- Benchmarking Critical Questions Generation: A Challenging Reasoning Task for Large Language Models [6.0158981171030685]
批判的質問生成(CQs-Gen)は、システムの前提となる仮定を明らかにする質問生成を可能にすることによって、批判的思考を促進することを目的としている。
この領域への関心が高まっているにもかかわらず、適切なデータセットと自動評価基準の欠如によって進歩が妨げられている。
本稿では,本課題に対するシステムの開発とベンチマークを支援するための包括的アプローチを提案する。
論文 参考訳(メタデータ) (2025-05-16T15:08:04Z) - SQuARE: Sequential Question Answering Reasoning Engine for Enhanced Chain-of-Thought in Large Language Models [4.328173053224842]
本稿では、自己干渉パラダイムによる推論を改善するために設計された新しいプロンプト技術であるSQuAREを紹介する。
CoTフレームワーク上に構築されているSQuAREでは,メインクエリに対処する前に,複数の補助的な質問の生成と解決をモデルに促している。
Llama 3 と GPT-4o モデルを用いて複数の質問応答データセットを用いて評価を行った結果,SQuARE が従来の CoT プロンプトや既存のrephrase-and- corresponding 手法をはるかに上回っていることが示された。
論文 参考訳(メタデータ) (2025-02-13T15:07:20Z) - Critical Questions Generation: Motivation and Challenges [6.0158981171030685]
本稿では,議論文を処理し,それによる批判的な質問を生成する新しいタスクを提案する。
議論理論において、CQは、欠落している可能性のある情報を指差して、議論の盲点を埋めるように設計されたツールである。
LLMを用いたCQs生成の研究には,大規模な実験のための参照データセットが必要である。
論文 参考訳(メタデータ) (2024-10-18T09:46:38Z) - Qsnail: A Questionnaire Dataset for Sequential Question Generation [76.616068047362]
質問紙作成作業に特化して構築された最初のデータセットについて述べる。
我々はQsnailの実験を行い、その結果、検索モデルと従来の生成モデルが与えられた研究トピックや意図と完全に一致していないことが明らかとなった。
チェーン・オブ・シークレット・プロンプトと微調整による改善にもかかわらず、言語モデルによるアンケートは、人間の手書きのアンケートには及ばない。
論文 参考訳(メタデータ) (2024-02-22T04:14:10Z) - QUDEVAL: The Evaluation of Questions Under Discussion Discourse Parsing [87.20804165014387]
Questions Under discussions (QUD) は、言論を継続的に質問し、答えるように進行する多目的言語フレームワークである。
本研究はQUD解析の自動評価のための最初のフレームワークを紹介する。
細調整されたシステムとLLMの両方から生成された2,190のQUD質問のきめ細かい評価データセットであるQUDevalを提案する。
論文 参考訳(メタデータ) (2023-10-23T03:03:58Z) - Improving Question Generation with Multi-level Content Planning [70.37285816596527]
本稿では、与えられたコンテキストと回答から質問を生成する問題に対処し、特に拡張されたコンテキストをまたいだマルチホップ推論を必要とする質問に焦点をあてる。
具体的には、キーフレーズを同時に選択して完全な回答を生成するFA-modelと、生成した全回答を付加的な入力として取り込んだQ-modelの2つのコンポーネントを含む。
論文 参考訳(メタデータ) (2023-10-20T13:57:01Z) - Inquisitive Question Generation for High Level Text Comprehension [60.21497846332531]
InQUISITIVEは、文書を読みながら19K質問を抽出するデータセットである。
我々は,読者が情報を求めるための実践的な戦略に携わることを示す。
我々は, GPT-2に基づく質問生成モデルを評価し, 妥当な質問を生成することができることを示す。
論文 参考訳(メタデータ) (2020-10-04T19:03:39Z) - Reinforced Multi-task Approach for Multi-hop Question Generation [47.15108724294234]
我々は,その文脈における支援事実に基づいて,関連する質問を生成することを目的としたマルチホップ質問生成を取り上げている。
我々は,質問生成を導くために,回答認識支援事実予測の補助タスクを備えたマルチタスク学習を採用する。
マルチホップ質問応答データセットHotPotQAの実験を通して,提案手法の有効性を実証する。
論文 参考訳(メタデータ) (2020-04-05T10:16:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。