論文の概要: Recent Advances in Multi-Choice Machine Reading Comprehension: A Survey on Methods and Datasets
- arxiv url: http://arxiv.org/abs/2408.02114v1
- Date: Sun, 4 Aug 2024 18:57:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-06 15:05:52.035507
- Title: Recent Advances in Multi-Choice Machine Reading Comprehension: A Survey on Methods and Datasets
- Title(参考訳): マルチコース機械読解の最近の進歩:方法とデータセットに関する調査
- Authors: Shima Foolad, Kourosh Kiani, Razieh Rastgoo,
- Abstract要約: この分析は、30の既存のクローゼスタイルとマルチチョイスMCCベンチマークデータセットに展開されている。
本稿では,最近の手法を細調整法とプロンプト調整法に分類する。
- 参考スコア(独自算出の注目度): 19.021200954913482
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper provides a thorough examination of recent developments in the field of multi-choice Machine Reading Comprehension (MRC). Focused on benchmark datasets, methodologies, challenges, and future trajectories, our goal is to offer researchers a comprehensive overview of the current landscape in multi-choice MRC. The analysis delves into 30 existing cloze-style and multiple-choice MRC benchmark datasets, employing a refined classification method based on attributes such as corpus style, domain, complexity, context style, question style, and answer style. This classification system enhances our understanding of each dataset's diverse attributes and categorizes them based on their complexity. Furthermore, the paper categorizes recent methodologies into Fine-tuned and Prompt-tuned methods. Fine-tuned methods involve adapting pre-trained language models (PLMs) to a specific task through retraining on domain-specific datasets, while prompt-tuned methods use prompts to guide PLM response generation, presenting potential applications in zero-shot or few-shot learning scenarios. By contributing to ongoing discussions, inspiring future research directions, and fostering innovations, this paper aims to propel multi-choice MRC towards new frontiers of achievement.
- Abstract(参考訳): 本稿では,Multi-choice Machine Reading Comprehension (MRC) の分野における最近の進展を詳細に検討する。
我々の目標は、ベンチマークデータセット、方法論、課題、将来の軌跡に焦点をあてて、研究者にマルチ選択MRCにおける現在の状況の包括的概要を提供することである。
この分析は、コーパススタイル、ドメイン、複雑性、コンテキストスタイル、質問スタイル、回答スタイルといった属性に基づいた、洗練された分類手法を用いて、30の既存のクローゼスタイルおよびマルチチョイスMCCベンチマークデータセットに展開されている。
この分類システムは、各データセットの多様な属性の理解を高め、それらの複雑さに基づいて分類する。
さらに,近年の方法論を細調整法とプロンプト調整法に分類した。
訓練済みの言語モデル(PLM)をドメイン固有のデータセットで再トレーニングすることで特定のタスクに適応する一方で、プロンプトチューニングされたメソッドは、PLM応答生成のガイドにプロンプトを使用し、ゼロショットや少数ショットの学習シナリオにおける潜在的な応用を提示する。
今後の研究の方向性を刺激し,イノベーションの育成に寄与することにより,達成の新たなフロンティアに向けての多目的MRCの推進をめざす。
関連論文リスト
- A Survey of Small Language Models [104.80308007044634]
小言語モデル (SLM) は, 計算資源の最小化による言語タスクの効率化と性能の向上により, ますます重要になってきている。
本稿では,SLMのアーキテクチャ,トレーニング技術,モデル圧縮技術に着目した総合的な調査を行う。
論文 参考訳(メタデータ) (2024-10-25T23:52:28Z) - Are Large Language Models Good Classifiers? A Study on Edit Intent Classification in Scientific Document Revisions [62.12545440385489]
大規模言語モデル(LLM)は、テキスト生成の大幅な進歩をもたらしたが、分類タスクの強化の可能性はまだ未検討である。
生成と符号化の両方のアプローチを含む分類のための微調整LDMを徹底的に研究するためのフレームワークを提案する。
我々はこのフレームワークを編集意図分類(EIC)においてインスタンス化する。
論文 参考訳(メタデータ) (2024-10-02T20:48:28Z) - Unleashing the Power of Data Tsunami: A Comprehensive Survey on Data Assessment and Selection for Instruction Tuning of Language Models [33.488331159912136]
インストラクションチューニングは、大きな言語モデル(LLM)と人間の嗜好の整合において重要な役割を果たす。
自然言語処理(NLP)とディープラーニングの分野において,データアセスメントと選択手法が提案されている。
本稿では,データアセスメントと選択に関する既存の文献を総合的にレビューし,特にLLMの命令チューニングについて述べる。
論文 参考訳(メタデータ) (2024-08-04T16:50:07Z) - Towards Robust Evaluation: A Comprehensive Taxonomy of Datasets and Metrics for Open Domain Question Answering in the Era of Large Language Models [0.0]
自然言語処理におけるオープンドメイン質問回答(ODQA)は,大規模知識コーパスを用いて,事実質問に回答するシステムを構築する。
高品質なデータセットは、現実的なシナリオでモデルをトレーニングするために使用されます。
標準化されたメトリクスは、異なるODQAシステム間の比較を容易にする。
論文 参考訳(メタデータ) (2024-06-19T05:43:02Z) - Unsupervised Multimodal Clustering for Semantics Discovery in Multimodal Utterances [24.142013877384603]
本稿では,新しい教師なしマルチモーダルクラスタリング手法 (UMC) を提案する。
UMCは、マルチモーダルデータのための拡張ビューを構築するためのユニークなアプローチを導入し、事前トレーニングを実行するために使用される。
我々は、最先端の手法よりもクラスタリングメトリクスの2-6%のスコアが顕著に改善され、この領域で最初の成功例となった。
論文 参考訳(メタデータ) (2024-05-21T13:24:07Z) - A Language Model based Framework for New Concept Placement in Ontologies [33.31096456574208]
言語モデルを用いて,テキストから抽出した概念をオントロジーに挿入する作業について検討する。
本稿では,埋め込み型手法とコントラスト学習を応用したニューラルネットワーク手法を提案する。
SNOMED CTとMedMentionsエンティティリンクベンチマークを用いて作成した最近のデータセットの手法を評価する。
論文 参考訳(メタデータ) (2024-02-27T21:27:35Z) - Exploring Precision and Recall to assess the quality and diversity of LLMs [82.21278402856079]
我々はtextscLlama-2 や textscMistral のような大規模言語モデル (LLM) のための新しい評価フレームワークを提案する。
このアプローチにより、コーパスの整合を必要とせず、生成したテキストの品質と多様性を微妙に評価できる。
論文 参考訳(メタデータ) (2024-02-16T13:53:26Z) - Recent Few-Shot Object Detection Algorithms: A Survey with Performance
Comparison [54.357707168883024]
Few-Shot Object Detection (FSOD)は、人間の学習能力を模倣する。
FSODは、学習した汎用オブジェクトの知識を共通のヘビーテールから新しいロングテールオブジェクトクラスにインテリジェントに転送する。
本稿では,問題定義,共通データセット,評価プロトコルなどを含むFSODの概要を紹介する。
論文 参考訳(メタデータ) (2022-03-27T04:11:28Z) - Deep Learning Schema-based Event Extraction: Literature Review and
Current Trends [60.29289298349322]
ディープラーニングに基づくイベント抽出技術が研究ホットスポットとなっている。
本稿では,ディープラーニングモデルに焦点をあて,最先端のアプローチを見直し,そのギャップを埋める。
論文 参考訳(メタデータ) (2021-07-05T16:32:45Z) - Multitask Learning for Class-Imbalanced Discourse Classification [74.41900374452472]
マルチタスクアプローチは,現在のベンチマークで7%のマイクロf1コアを改善できることを示す。
また,NLPにおける資源不足問題に対処するための追加手法の比較検討を行った。
論文 参考訳(メタデータ) (2021-01-02T07:13:41Z) - Multi-document Summarization via Deep Learning Techniques: A Survey [29.431160110691607]
ニューラルネットワークの設計戦略を要約する新しい分類法を提案する。
既存の文献ではめったに議論されない様々な目的関数の違いを強調した。
論文 参考訳(メタデータ) (2020-11-10T00:35:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。