論文の概要: MinPrompt: Graph-based Minimal Prompt Data Augmentation for Few-shot
Question Answering
- arxiv url: http://arxiv.org/abs/2310.05007v1
- Date: Sun, 8 Oct 2023 04:44:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 13:34:54.782401
- Title: MinPrompt: Graph-based Minimal Prompt Data Augmentation for Few-shot
Question Answering
- Title(参考訳): MinPrompt: Few-shot Question Answeringのためのグラフベースの最小プロンプトデータ拡張
- Authors: Xiusi Chen, Jyun-Yu Jiang, Wei-Cheng Chang, Cho-Jui Hsieh, Hsiang-Fu
Yu, Wei Wang
- Abstract要約: オープンドメイン質問応答のための最小限のデータ拡張フレームワークMinPromptを提案する。
我々は、生テキストをグラフ構造に変換し、異なる事実文間の接続を構築する。
次に、グラフアルゴリズムを適用して、原文のほとんどの情報をカバーするのに必要な最小限の文の集合を識別する。
同定された文サブセットに基づいてQAペアを生成し、選択した文に基づいてモデルをトレーニングし、最終モデルを得る。
- 参考スコア(独自算出の注目度): 68.52980461474752
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Few-shot question answering (QA) aims at achieving satisfactory results on
machine question answering when only a few training samples are available.
Recent advances mostly rely on the power of pre-trained large language models
(LLMs) and fine-tuning in specific settings. Although the pre-training stage
has already equipped LLMs with powerful reasoning capabilities, LLMs still need
to be fine-tuned to adapt to specific domains to achieve the best results. In
this paper, we propose to select the most informative data for fine-tuning,
thereby improving the efficiency of the fine-tuning process with comparative or
even better accuracy on the open-domain QA task. We present MinPrompt, a
minimal data augmentation framework for open-domain QA based on an approximate
graph algorithm and unsupervised question generation. We transform the raw text
into a graph structure to build connections between different factual
sentences, then apply graph algorithms to identify the minimal set of sentences
needed to cover the most information in the raw text. We then generate QA pairs
based on the identified sentence subset and train the model on the selected
sentences to obtain the final model. Empirical results on several benchmark
datasets and theoretical analysis show that MinPrompt is able to achieve
comparable or better results than baselines with a high degree of efficiency,
bringing improvements in F-1 scores by up to 27.5%.
- Abstract(参考訳): QA (Few-shot Question answering) は、少数のトレーニングサンプルが利用可能である場合に、機械質問応答において満足な結果を達成することを目的としている。
最近の進歩は、主に訓練済みの大規模言語モデル(LLM)のパワーと特定の設定での微調整に依存している。
事前学習段階はすでに強力な推論能力を持つLLMを搭載しているが、最高の結果を得るためには、特定の領域に適応するように微調整する必要がある。
本稿では,最適調整のための最も有益なデータを選択することで,オープンドメインqaタスクの精度を比較,あるいはさらに精度良く調整プロセスの効率を向上させることを提案する。
近似グラフアルゴリズムと教師なし質問生成に基づく,オープンドメインqaのための最小データ拡張フレームワークであるminpromptを提案する。
原文をグラフ構造に変換し、異なる実文間の接続を構築する。次にグラフアルゴリズムを適用して、原文の最も多くの情報をカバーするのに必要な最小の文集合を識別します。
次に、識別文サブセットに基づいてqaペアを生成し、選択した文のモデルを訓練して最終モデルを得る。
いくつかのベンチマークデータセットと理論的分析の結果から、minpromptは高い効率でベースラインと同等または優れた結果を達成でき、f-1スコアを最大27.5%改善できることがわかった。
関連論文リスト
- Enhancing Question Answering Precision with Optimized Vector Retrieval and Instructions [1.2425910171551517]
質問応答 (QA) は情報検索 (IR) と言語モデルの重要な応用である。
本稿では、最適化されたベクトル検索と命令手法を統合することにより、QAタスク性能を改善するための革新的なアプローチを提案する。
論文 参考訳(メタデータ) (2024-11-01T21:14:04Z) - Advancing Multimodal Large Language Models in Chart Question Answering with Visualization-Referenced Instruction Tuning [1.6570772838074355]
マルチモーダル大言語モデル(MLLM)は、チャート質問応答(CQA)に大きな可能性を示す
近年の取り組みは、データ収集と合成によるデータセットのスケールアップに重点を置いている。
本稿では,トレーニングデータセットの強化とモデル開発を指導するための,可視化参照型指導チューニング手法を提案する。
論文 参考訳(メタデータ) (2024-07-29T17:04:34Z) - Fine-Tuning or Fine-Failing? Debunking Performance Myths in Large Language Models [0.8399688944263842]
大きな言語モデル(LLM)は、入力クエリから人間のようなテキストを理解し、生成する能力を持つ。
本研究では、この概念を、レトリーバル拡張生成(RAG)パイプライン内のLLMの統合に拡張する。
データ抽出と文脈理解における微調整がLLMの能力に与える影響を評価する。
論文 参考訳(メタデータ) (2024-06-17T04:35:17Z) - ReasoningLM: Enabling Structural Subgraph Reasoning in Pre-trained
Language Models for Question Answering over Knowledge Graph [142.42275983201978]
本稿では,構造化推論を行うためのGNNを模倣するサブグラフ認識型自己認識機構を提案する。
また、モデルパラメータを2万のサブグラフで合成した質問に適応するための適応チューニング戦略も採用する。
実験により、ReasoningLMは、更新されたパラメータが少なく、トレーニングデータが少ない場合でも、最先端のモデルを大きなマージンで上回っていることが示された。
論文 参考訳(メタデータ) (2023-12-30T07:18:54Z) - Generating Query Focused Summaries without Fine-tuning the
Transformer-based Pre-trained Models [0.6124773188525718]
新しいデータセットごとに自然言語処理(NLP)モデルを微調整するには、炭素フットプリントの増加とコストの増大に伴う高い計算時間が必要である。
本稿では,MMR(Marginal Maximum Relevance)に基づくアプローチが,事前学習に使用しなかった新しいデータセットから直接,クエリ中心の要約を得る上で有効かどうかを検討する。
実験結果から示すように,MMRに基づく手法では,最も関連性の高い文を要約としてランク付けし,個々の事前学習モデルよりも優れた性能を示した。
論文 参考訳(メタデータ) (2023-03-10T22:40:15Z) - M-Tuning: Prompt Tuning with Mitigated Label Bias in Open-Set Scenarios [103.6153593636399]
緩和ラベルバイアス(M-Tuning)を用いた視覚言語プロンプトチューニング手法を提案する。
これはWordNetからのオープンワードを導入し、クローズドセットラベルワードのみからもっと多くのプロンプトテキストを形成する単語の範囲を広げ、シミュレートされたオープンセットシナリオでプロンプトをチューニングする。
提案手法は,様々なスケールのデータセット上で最高の性能を達成し,広範囲にわたるアブレーション研究もその有効性を検証した。
論文 参考訳(メタデータ) (2023-03-09T09:05:47Z) - Learning to Ask Conversational Questions by Optimizing Levenshtein
Distance [83.53855889592734]
明示的な編集動作によって最小レベンシュテイン距離(MLD)を最適化する強化反復シーケンス編集(RISE)フレームワークを導入する。
RISEは会話の特徴に関連するトークンに注意を払うことができる。
2つのベンチマークデータセットの実験結果から、RISEは最先端の手法を大幅に上回っていることがわかった。
論文 参考訳(メタデータ) (2021-06-30T08:44:19Z) - Knowledge Graph Question Answering using Graph-Pattern Isomorphism [0.0]
TeBaQAは、SPARQLクエリの基本グラフパターンからグラフ同型に基づいて、質問に答えることを学ぶ。
TeBaQAはQALD-8で最先端のパフォーマンスを達成し、QALD-9とLC-QuAD v1で同等の結果を提供する。
論文 参考訳(メタデータ) (2021-03-11T16:03:24Z) - Generating Diverse and Consistent QA pairs from Contexts with
Information-Maximizing Hierarchical Conditional VAEs [62.71505254770827]
非構造化テキストを文脈として与えられたQAペアを生成するための条件付き変分オートエンコーダ(HCVAE)を提案する。
我々のモデルは、トレーニングにわずかなデータしか使わず、両方のタスクの全てのベースラインに対して印象的なパフォーマンス向上が得られる。
論文 参考訳(メタデータ) (2020-05-28T08:26:06Z) - Pre-training Is (Almost) All You Need: An Application to Commonsense
Reasoning [61.32992639292889]
事前学習されたトランスモデルの微調整は、一般的なNLPタスクを解決するための標準的なアプローチとなっている。
そこで本研究では,可視性ランキングタスクをフルテキスト形式でキャストする新たなスコアリング手法を提案する。
提案手法は, ランダム再起動にまたがって, より安定した学習段階を提供することを示す。
論文 参考訳(メタデータ) (2020-04-29T10:54:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。