論文の概要: ELLIS Alicante at CQs-Gen 2025: Winning the critical thinking questions shared task: LLM-based question generation and selection
- arxiv url: http://arxiv.org/abs/2506.14371v1
- Date: Tue, 17 Jun 2025 10:10:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-18 17:34:59.420269
- Title: ELLIS Alicante at CQs-Gen 2025: Winning the critical thinking questions shared task: LLM-based question generation and selection
- Title(参考訳): ELLIS Alicante at CQs-Gen 2025: Winning the critical thinking questions shared task: LLM-based question generation and selection
- Authors: Lucile Favero, Daniel Frases, Juan Antonio Pérez-Ortiz, Tanja Käser, Nuria Oliver,
- Abstract要約: この研究は、ACL 2025と共同で行った第12回Argument Miningワークショップの共有タスクの一部である。
本稿では,2つの小規模オープンソース言語モデルを含む2段階のフレームワークを提案する。
- 参考スコア(独自算出の注目度): 7.152439554068969
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The widespread adoption of chat interfaces based on Large Language Models (LLMs) raises concerns about promoting superficial learning and undermining the development of critical thinking skills. Instead of relying on LLMs purely for retrieving factual information, this work explores their potential to foster deeper reasoning by generating critical questions that challenge unsupported or vague claims in debate interventions. This study is part of a shared task of the 12th Workshop on Argument Mining, co-located with ACL 2025, focused on automatic critical question generation. We propose a two-step framework involving two small-scale open source language models: a Questioner that generates multiple candidate questions and a Judge that selects the most relevant ones. Our system ranked first in the shared task competition, demonstrating the potential of the proposed LLM-based approach to encourage critical engagement with argumentative texts.
- Abstract(参考訳): LLM(Large Language Models)に基づくチャットインタフェースの普及により、表面的な学習を促進し、批判的思考スキルの開発を損なう懸念が高まっている。
この研究は、事実情報を取得するために純粋にLLMに頼るのではなく、議論の介入において、疑わしい、曖昧な主張に異議を唱える批判的な質問を発生させることで、より深い推論を促進する可能性を探究する。
本研究は, ACL 2025と共同で, 自動批判質問生成に焦点をあてた第12回Argument Miningワークショップの共有作業の一環である。
本稿では,2つの小規模オープンソース言語モデルを含む2段階のフレームワークを提案する。
提案手法は,議論的テキストへの批判的関与を促すために提案されたLCMアプローチの可能性を実証し,共有タスクコンペティションで第1位にランク付けした。
関連論文リスト
- DayDreamer at CQs-Gen 2025: Generating Critical Questions through Argument Scheme Completion [3.740062413173584]
本稿では,ArgMining 2025におけるCQ(Critical Questions Generation)共有タスクについて紹介する。
提案手法は,大規模言語モデル (LLM) とチェーン・オブ・シントを利用して,ウォルトンの議論スキームに導かれる重要な質問を生成する。
パイプラインは最終テストセットで競合的なパフォーマンスを達成し、議論的なテキストを与えられた批判的思考を育み、欠落や不正なクレームを検出する可能性を示しています。
論文 参考訳(メタデータ) (2025-05-21T14:15:49Z) - Benchmarking Critical Questions Generation: A Challenging Reasoning Task for Large Language Models [6.0158981171030685]
批判的質問生成(CQs-Gen)は、システムの前提となる仮定を明らかにする質問生成を可能にすることによって、批判的思考を促進することを目的としている。
この領域への関心が高まっているにもかかわらず、適切なデータセットと自動評価基準の欠如によって進歩が妨げられている。
本稿では,本課題に対するシステムの開発とベンチマークを支援するための包括的アプローチを提案する。
論文 参考訳(メタデータ) (2025-05-16T15:08:04Z) - AGENT-CQ: Automatic Generation and Evaluation of Clarifying Questions for Conversational Search with LLMs [53.6200736559742]
エージェント-CQは、世代ステージと評価ステージの2つのステージから構成される。
CrowdLLMは、人間のクラウドソーシング判断をシミュレートして、生成された質問や回答を評価する。
ClariQデータセットの実験では、質問と回答の品質を評価するCrowdLLMの有効性が示されている。
論文 参考訳(メタデータ) (2024-10-25T17:06:27Z) - Reasoning with Large Language Models, a Survey [2.831296564800826]
本稿では,LSMによるプロンプトベース推論の急速に進展する分野について概説する。
我々の分類学は、多段階推論の生成、評価、制御の異なる方法を特定します。
我々は, 自己改善, 自己回帰, 推論過程のいくつかのメタ能力が, プロンプトの司法的利用によって可能であることを発見した。
論文 参考訳(メタデータ) (2024-07-16T08:49:35Z) - A Philosophical Introduction to Language Models - Part II: The Way Forward [0.0]
大規模言語モデル(LLM)の最近の進歩によって提起された新しい哲学的問題について考察する。
我々は特に,LLMの内部表現と計算の性質に関する因果介入手法の証拠を検証し,解釈可能性に関する問題に焦点をあてる。
建築的特徴や学習シナリオが適切に制約されている場合、LLMのようなシステムが人間の認知のモデル化に関係があるかどうかを論じる。
論文 参考訳(メタデータ) (2024-05-06T07:12:45Z) - Re-Reading Improves Reasoning in Large Language Models [87.46256176508376]
既成のLarge Language Models (LLM) の推論能力を高めるため, 単純で汎用的で効果的なプロンプト手法であるRe2を導入する。
CoT (Chain-of-Thought) など、ほとんどの思考を刺激する手法とは異なり、Re2 は質問を2回処理することで入力に焦点を移し、理解プロセスを強化する。
提案手法の有効性と汎用性を検証するため,14のデータセットにまたがる広範囲な推論ベンチマークでRe2を評価した。
論文 参考訳(メタデータ) (2023-09-12T14:36:23Z) - Skills-in-Context Prompting: Unlocking Compositionality in Large Language Models [68.18370230899102]
大規模言語モデル(LLM)における構成一般化能力の活用法について検討する。
我々は,これらのスキルに基礎を置く基礎的スキルと構成的事例の両方を同じプロンプト・コンテキストで示すことが重要であることを発見した。
SKiC型データを用いた微調整LDMは、ゼロショット弱強一般化を導出できることを示す。
論文 参考訳(メタデータ) (2023-08-01T05:54:12Z) - Prompting and Evaluating Large Language Models for Proactive Dialogues:
Clarification, Target-guided, and Non-collaboration [72.04629217161656]
本研究は, 明瞭化, 目標誘導, 非協調対話の3つの側面に焦点をあてる。
LLMの能動性を高めるために,プロアクティブ・チェーン・オブ・ソート・プロンプト方式を提案する。
論文 参考訳(メタデータ) (2023-05-23T02:49:35Z) - Knowledgeable Dialogue Reading Comprehension on Key Turns [84.1784903043884]
MRC(Multi-choice Machine reading comprehension)は、ある項目と質問に対する候補オプションから正しい回答を選択するモデルである。
本研究は,複数回対話を行う対話型MRCに焦点を当てている。
それは2つの課題に悩まされ、答えの選択決定は、最近役に立つコモンセンスをサポートせずに行われ、マルチターンコンテキストは、かなりの無関係な情報を隠蔽する可能性がある。
論文 参考訳(メタデータ) (2020-04-29T07:04:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。