論文の概要: When Do Decompositions Help for Machine Reading?
- arxiv url: http://arxiv.org/abs/2212.10019v1
- Date: Tue, 20 Dec 2022 06:23:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-21 15:22:55.750691
- Title: When Do Decompositions Help for Machine Reading?
- Title(参考訳): 分解はいつ機械読解に役立つか?
- Authors: Kangda Wei, Dawn Lawrie, Benjamin Van Durme, Yunmo Chen, Orion Weller
- Abstract要約: 我々は,機械読取における分解実験を行い,最近の研究を統一する。
数ショットのケースでは分解が有効であることが分かり、正確な一致スコアがいくつかの点で改善されている。
また、モデルを数百以上の例でデータセットにアクセスできる場合、分解は役に立たないことも示しています。
- 参考スコア(独自算出の注目度): 28.198168183209315
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Answering complex questions often requires multi-step reasoning in order to
obtain the final answer. Most research into decompositions of complex questions
involves open-domain systems, which have shown success in using these
decompositions for improved retrieval. In the machine reading setting, however,
work to understand when decompositions are helpful is understudied. We conduct
experiments on decompositions in machine reading to unify recent work in this
space, using a range of models and datasets. We find that decompositions can be
helpful in the few-shot case, giving several points of improvement in exact
match scores. However, we also show that when models are given access to
datasets with around a few hundred or more examples, decompositions are not
helpful (and can actually be detrimental). Thus, our analysis implies that
models can learn decompositions implicitly even with limited data.
- Abstract(参考訳): 複雑な質問への答えは、最終回答を得るためには多段階の推論を必要とすることが多い。
複雑な質問の分解に関するほとんどの研究は、オープンドメインシステムを含み、これらの分解を用いて検索を改善することに成功した。
しかし、機械読解設定では、分解がいつ役に立つかを理解する作業は未検討である。
我々は,この領域における最近の作業を統合するために,様々なモデルとデータセットを用いて,機械読解における分解実験を行う。
我々は、分解が小ショットの場合に役立つことを見出し、正確な一致点数でいくつかの改善点を与える。
しかし、数百以上の例でモデルにデータセットへのアクセスが与えられている場合、分解は役に立たない(実際に有害である可能性がある)ことも示します。
したがって,モデルが限定的なデータでも暗黙的に分解を学習できることを示す。
関連論文リスト
- eGAD! double descent is explained by Generalized Aliasing Decomposition [0.0]
本稿では,予測性能とモデル複雑性の関係を説明するため,GAD(Generalized Aliasing decomposition)と呼ぶ新しい分解法を提案する。
GADは予測誤差を3つの部分に分解する: 1) パラメータの数がデータポイントの数よりもはるかに小さい場合に支配するモデル不整合、2) データ不整合、3) パラメータの数がデータポイントの数よりはるかに大きいときに支配するデータ不整合、3) 一般化エイリアス。
論文 参考訳(メタデータ) (2024-08-15T17:49:24Z) - Look Before You Leap: A Universal Emergent Decomposition of Retrieval
Tasks in Language Models [58.57279229066477]
本研究では,言語モデル(LM)が様々な状況下での検索タスクをどのように解決するかを検討する。
ORIONは6つのドメインにまたがる構造化された検索タスクの集合である。
LMは内部的にモジュール方式で検索タスクを分解する。
論文 参考訳(メタデータ) (2023-12-13T18:36:43Z) - Improved Compositional Generalization by Generating Demonstrations for Meta-Learning [53.818234285773165]
従来未解決であった構成動作分割に対して,他の分割に対する性能の損失を伴わずに,大幅な性能向上を示す。
この場合、オラクル関数でさえも関連する実演を探すことは、メタラーニングを使用する際には十分な性能を得るには不十分である。
論文 参考訳(メタデータ) (2023-05-22T14:58:54Z) - Are Random Decompositions all we need in High Dimensional Bayesian
Optimisation? [4.31133019086586]
グローバルに保持されていない局所的な分解に対して,データ駆動による分解学習者が容易に誤認できることが判明した。
木をベースとした無作為分解サンプリング装置は、ブラックボックスとそのサロゲート間の最大情報ゲインと機能ミスマッチを効果的にトレードオフする理論的保証を示す。
これらの結果は、(ほぼ)プラグ・アンド・プレイの実装が容易な乱分解上信頼結合アルゴリズム(RDUCB)の開発を動機付けている。
論文 参考訳(メタデータ) (2023-01-30T12:54:46Z) - Successive Prompting for Decomposing Complex Questions [50.00659445976735]
最近の研究は、大規模言語モデル(LM)の機能を活用して、数ショットで複雑な質問応答を行う。
そこでは、複雑なタスクを単純なタスクに繰り返し分解し、それを解決し、最終解を得るまでプロセスを繰り返します。
我々の最良のモデル(逐次プロンプト付き)は、DROPデータセットの数ショットバージョンにおいて、5%の絶対F1の改善を実現します。
論文 参考訳(メタデータ) (2022-12-08T06:03:38Z) - Amortized Inference for Causal Structure Learning [72.84105256353801]
因果構造を学習することは、通常、スコアまたは独立テストを使用して構造を評価することを伴う探索問題を引き起こす。
本研究では,観測・干渉データから因果構造を予測するため,変分推論モデルを訓練する。
我々のモデルは、実質的な分布シフトの下で頑健な一般化能力を示す。
論文 参考訳(メタデータ) (2022-05-25T17:37:08Z) - Is a Question Decomposition Unit All We Need? [20.66688303609522]
モデルを解くのが比較的容易な、より単純な質問の集合に、人間が難解な質問を分解できるかどうかを検討する。
我々は、様々な推論形式を含むデータセットを解析し、モデルの性能を大幅に改善することは実際に可能であることを発見した。
以上の結果から,Human-in-the-loop Question Decomposition (HQD) が大規模LM構築の代替となる可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-25T07:24:09Z) - Learning Aggregation Functions [78.47770735205134]
任意の濃度の集合に対する学習可能なアグリゲータであるLAF(Learning Aggregation Function)を紹介する。
半合成および実データを用いて,LAFが最先端の和(max-)分解アーキテクチャより優れていることを示す実験を報告する。
論文 参考訳(メタデータ) (2020-12-15T18:28:53Z) - Robust Question Answering Through Sub-part Alignment [53.94003466761305]
我々はアライメント問題として質問応答をモデル化する。
私たちは、SQuAD v1.1でモデルをトレーニングし、いくつかの逆および外ドメインデータセットでそれをテストします。
論文 参考訳(メタデータ) (2020-04-30T09:10:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。