論文の概要: ViMultiChoice: Toward a Method That Gives Explanation for Multiple-Choice Reading Comprehension in Vietnamese
- arxiv url: http://arxiv.org/abs/2602.09961v1
- Date: Tue, 10 Feb 2026 16:48:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-11 20:17:43.690416
- Title: ViMultiChoice: Toward a Method That Gives Explanation for Multiple-Choice Reading Comprehension in Vietnamese
- Title(参考訳): ViMultiChoice:ベトナムにおける複数字読解のための説明方法
- Authors: Trung Tien Cao, Lam Minh Thai, Nghia Hieu Nguyen, Duc-Vu Nguyen, Ngan Luu-Thuy Nguyen,
- Abstract要約: MCRC(Multiple-choice Reading)モデルは、与えられた質問に対する候補オプションのセットから正しい回答を選択することを目的としている。
本稿では,説明生成機能を備えたMCRCモデルの訓練と評価を目的としたベトナムの新たなデータセットを提案する。
ベトナム語読解をモデル化するための新しい手法であるViMultiChoiceを提案する。
- 参考スコア(独自算出の注目度): 4.0049311862616515
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Multiple-choice Reading Comprehension (MCRC) models aim to select the correct answer from a set of candidate options for a given question. However, they typically lack the ability to explain the reasoning behind their choices. In this paper, we introduce a novel Vietnamese dataset designed to train and evaluate MCRC models with explanation generation capabilities. Furthermore, we propose ViMultiChoice, a new method specifically designed for modeling Vietnamese reading comprehension that jointly predicts the correct answer and generates a corresponding explanation. Experimental results demonstrate that ViMultiChoice outperforms existing MCRC baselines, achieving state-of-the-art (SotA) performance on both the ViMMRC 2.0 benchmark and the newly introduced dataset. Additionally, we show that jointly training option decision and explanation generation leads to significant improvements in multiple-choice accuracy.
- Abstract(参考訳): MCRC(Multi-choice Reading Comprehension)モデルは、与えられた質問に対する候補オプションのセットから正しい回答を選択することを目的としている。
しかし、彼らは通常、自分の選択の背後にある理由を説明する能力が欠けている。
本稿では,説明生成機能を備えたMCRCモデルの訓練と評価を目的としたベトナムの新たなデータセットを提案する。
さらに,ベトナム語読み理解をモデル化するための新しい手法であるViMultiChoiceを提案する。
実験の結果、ViMultiChoiceは既存のMCRCベースラインより優れており、ViMMRC 2.0ベンチマークと新たに導入されたデータセットの両方で最先端(SotA)のパフォーマンスを実現している。
さらに,共同学習の選択肢決定と説明生成が複数選択精度を大幅に向上させることを示す。
関連論文リスト
- GreenMind: A Next-Generation Vietnamese Large Language Model for Structured and Logical Reasoning [0.0]
CoT(Chain-of-Thought)は、最終回答を生成する前に中間推論ステップを必要とするLCMタスクに取り組むための堅牢なアプローチである。
グループ相対政策最適化に基づく微調整戦略に触発されたベトナムの推論モデルであるGreenMind-Medium-14B-R1を提案する。
論文 参考訳(メタデータ) (2025-04-23T15:48:55Z) - Differentiating Choices via Commonality for Multiple-Choice Question Answering [54.04315943420376]
複数選択の質問応答は、正しい答えを選択するための貴重な手がかりを提供することができる。
既存のモデルでは、それぞれの選択を別々にランク付けし、他の選択によって提供されるコンテキストを見渡すことが多い。
本稿では,DCQAと呼ばれる共通性を識別・排除することで,選択を識別する新しいモデルを提案する。
論文 参考訳(メタデータ) (2024-08-21T12:05:21Z) - Transfer Learning Enhanced Single-choice Decision for Multi-choice Question Answering [27.601353412882258]
MMRC (Multi-choice Machine Reading) は、与えられたパスと質問に基づいて、オプションのセットから正しい回答を選択することを目的としている。
本稿では,ある解答が正しいかどうかを識別するために,二項分類を訓練することにより,複数選択を単一選択に再構成する。
提案手法はマルチ選択フレームワークを排除し,他のタスクのリソースを活用できる。
論文 参考訳(メタデータ) (2024-04-27T16:02:55Z) - Revisiting Demonstration Selection Strategies in In-Context Learning [66.11652803887284]
大規模言語モデル(LLM)は、インコンテキスト学習(ICL)を用いて広範囲のタスクを実行するという印象的な能力を示している。
本研究ではまず,データとモデルの両方の側面から,この分散に寄与する要因を再検討し,実演の選択がデータとモデルに依存していることを確かめる。
本研究では,データとモデルに依存した実演選択手法である textbfTopK + ConE を提案する。
論文 参考訳(メタデータ) (2024-01-22T16:25:27Z) - ViMMRC 2.0 -- Enhancing Machine Reading Comprehension on Vietnamese Literature Text [1.3942150186842373]
ViMMRC 2.0はベトナムのテキストブックにおける複数選択読解作業のための以前のViMMRCの拡張である。
このデータセットには、散文と詩からなる699の読解通路と、5,273の質問がある。
マルチステップアテンションネットワーク(MAN)と自然言語推論(NLI)タスクを組み合わせた多段階アプローチを提案する。
論文 参考訳(メタデータ) (2023-03-31T15:54:54Z) - Learn to Explain: Multimodal Reasoning via Thought Chains for Science
Question Answering [124.16250115608604]
本稿では,SQA(Science Question Answering)について紹介する。SQA(Science Question Answering)は,21万のマルチモーダルな複数選択質問と多様な科学トピックと,それに対応する講義や説明による回答の注釈からなる新しいベンチマークである。
また,SQAでは,数ショットのGPT-3では1.20%,微調整のUnifiedQAでは3.99%の改善が見られた。
我々の分析は、人間に似た言語モデルは、より少ないデータから学習し、わずか40%のデータで同じパフォーマンスを達成するのに、説明の恩恵を受けることを示している。
論文 参考訳(メタデータ) (2022-09-20T07:04:24Z) - Improving Machine Reading Comprehension with Single-choice Decision and
Transfer Learning [18.81256990043713]
MMRC (Multi-choice Machine Reading) は、与えられたパスと質問に基づいて、オプションのセットから正しい回答を選択することを目的としている。
SQuADやDreamといった他のRCタスクから知識を伝達するのは簡単ではない。
我々は、ある解答が正しいかどうかを識別するために二分分類を訓練することにより、複数選択から単一選択へ再構成する。
論文 参考訳(メタデータ) (2020-11-06T11:33:29Z) - MS-Ranker: Accumulating Evidence from Potentially Correct Candidates for
Answer Selection [59.95429407899612]
そこで我々は,MS-Ranker という,新しい強化学習に基づくマルチステップランキングモデルを提案する。
我々は、候補の潜在的な正しさを明示的に考慮し、ゲーティング機構で証拠を更新する。
我々のモデルは、外部リソースに依存しない既存の手法を著しく上回ります。
論文 参考訳(メタデータ) (2020-10-10T10:36:58Z) - A Vietnamese Dataset for Evaluating Machine Reading Comprehension [2.7528170226206443]
ベトナム語として低リソース言語のための新しいデータセットであるUIT-ViQuADを提案する。
このデータセットは、ウィキペディアから174のベトナム語記事の5,109節に基づいて、23,000人以上の人が生成した質問応答ペアで構成されている。
UIT-ViQuADの最初の実験モデルとして、英語と中国語の最先端MRC手法の実験を行った。
論文 参考訳(メタデータ) (2020-09-30T15:06:56Z) - Knowledgeable Dialogue Reading Comprehension on Key Turns [84.1784903043884]
MRC(Multi-choice Machine reading comprehension)は、ある項目と質問に対する候補オプションから正しい回答を選択するモデルである。
本研究は,複数回対話を行う対話型MRCに焦点を当てている。
それは2つの課題に悩まされ、答えの選択決定は、最近役に立つコモンセンスをサポートせずに行われ、マルチターンコンテキストは、かなりの無関係な情報を隠蔽する可能性がある。
論文 参考訳(メタデータ) (2020-04-29T07:04:43Z) - DUMA: Reading Comprehension with Transposition Thinking [107.89721765056281]
MRC (Multi-choice Machine Reading) は、解答オプションのセットから正しい解答を決定するためのモデルを必要とする。
新しい Dual Multi-head Co-Attention (DUMA) モデルは、多選択MRC問題を解決する人間の転置思考プロセスにインスパイアされている。
論文 参考訳(メタデータ) (2020-01-26T07:35:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。