論文の概要: Semantic-based Data Augmentation for Math Word Problems
- arxiv url: http://arxiv.org/abs/2201.02489v1
- Date: Fri, 7 Jan 2022 15:07:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-10 14:49:05.004194
- Title: Semantic-based Data Augmentation for Math Word Problems
- Title(参考訳): 算数語問題に対する意味論的データ拡張
- Authors: Ailisi Li, Jiaqing Liang and Yanghua Xiao
- Abstract要約: 既存のMWPタスクのデータセットには、ニューラルネットワークが様々なローカルな分散を曖昧にし、正しい質問を解くための鍵となる、限られたサンプルが含まれている。
そこで本稿では,既存のデータセットを局所的分散の異なるデータで補完する,新しいデータ拡張手法を提案する。
新しいサンプルは知識誘導型エンティティ置換と論理誘導型問題再構成によって生成される。
- 参考スコア(独自算出の注目度): 19.04537729414962
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It's hard for neural MWP solvers to deal with tiny local variances. In MWP
task, some local changes conserve the original semantic while the others may
totally change the underlying logic. Currently, existing datasets for MWP task
contain limited samples which are key for neural models to learn to
disambiguate different kinds of local variances in questions and solve the
questions correctly. In this paper, we propose a set of novel data augmentation
approaches to supplement existing datasets with such data that are augmented
with different kinds of local variances, and help to improve the generalization
ability of current neural models. New samples are generated by knowledge guided
entity replacement, and logic guided problem reorganization. The augmentation
approaches are ensured to keep the consistency between the new data and their
labels. Experimental results have shown the necessity and the effectiveness of
our methods.
- Abstract(参考訳): ニューラルMWPソルバが小さな局所的な分散に対処するのは困難です。
MWPタスクでは、いくつかのローカルな変更は元のセマンティックを保存し、他の変更は基盤となるロジックを完全に変更する。
現在、MWPタスクの既存のデータセットには、ニューラルネットワークが様々なローカルな分散を曖昧にし、質問を正しく解くための鍵となる限られたサンプルが含まれている。
本稿では,既存のデータセットを異なる局所分散で拡張したデータで補完する新しいデータ拡張手法を提案し,現在のニューラルモデルの一般化能力の向上に寄与する。
新しいサンプルは知識誘導エンティティ置換とロジック誘導問題再編成によって生成される。
拡張アプローチは、新しいデータとラベル間の一貫性を維持するために確保される。
実験の結果,本手法の必要性と有効性が示された。
関連論文リスト
- Optimal Classification under Performative Distribution Shift [13.508249764979075]
本稿では,動作効果をプッシュフォワード尺度としてモデル化した新しい視点を提案する。
我々は、新しい仮定のセットの下で、パフォーマンスリスクの凸性を証明する。
また, 性能リスクの最小化を min-max 変動問題として再定義することにより, 逆向きの頑健な分類との関係を確立する。
論文 参考訳(メタデータ) (2024-11-04T12:20:13Z) - Informative Data Mining for One-Shot Cross-Domain Semantic Segmentation [84.82153655786183]
Informative Data Mining (IDM) と呼ばれる新しいフレームワークを提案し、セマンティックセグメンテーションのための効率的なワンショットドメイン適応を実現する。
IDMは、最も情報性の高いサンプルを特定するために不確実性に基づく選択基準を提供し、迅速に適応し、冗長なトレーニングを減らす。
提案手法は,GTA5/SYNTHIAからCityscapesへの適応タスクにおいて,既存の手法より優れ,56.7%/55.4%の最先端のワンショット性能を実現している。
論文 参考訳(メタデータ) (2023-09-25T15:56:01Z) - DCID: Deep Canonical Information Decomposition [84.59396326810085]
本稿では,2つの1次元目標変数間で共有される信号の同定について考察する。
そこで本研究では,地中トラスラベルの存在下で使用可能な評価指標であるICMを提案する。
また、共有変数を学習するための単純かつ効果的なアプローチとして、Deep Canonical Information Decomposition (DCID)を提案する。
論文 参考訳(メタデータ) (2023-06-27T16:59:06Z) - A Penalty Approach for Normalizing Feature Distributions to Build
Confounder-Free Models [11.818509522227565]
MetaData Normalization (MDN) は、学習不能なクローズドフォームソリューションに基づいてメタデータと各特徴の線形関係を推定する。
罰則法(PDMN)を適用してMDN法を拡張した。
MDNによるモデル精度の向上とMDN上のMDNを用いた共同設立者からの独立性の向上を示す。
論文 参考訳(メタデータ) (2022-07-11T04:02:12Z) - Unbiased Math Word Problems Benchmark for Mitigating Solving Bias [72.8677805114825]
現在の問題解決者は、バイアス付きデータセットと不適切なトレーニング戦略によるデータバイアスと学習バイアスからなるバイアスを解決している。
実験により,MWP の解法は,すべての MWP の問題を多種多様な質問をカバーしないバイアス付きトレーニングデータセットにより容易にバイアスを受けられることを確認した。
MWPは複数の等価方程式によって自然に解けるが、現在のデータセットは1つの等価方程式のみを基底真理とする。
論文 参考訳(メタデータ) (2022-05-17T06:07:04Z) - On Generalizing Beyond Domains in Cross-Domain Continual Learning [91.56748415975683]
ディープニューラルネットワークは、新しいタスクを学んだ後、これまで学んだ知識の破滅的な忘れ込みに悩まされることが多い。
提案手法は、ドメインシフト中の新しいタスクを精度良く学習することで、DomainNetやOfficeHomeといった挑戦的なデータセットで最大10%向上する。
論文 参考訳(メタデータ) (2022-03-08T09:57:48Z) - Mixture of basis for interpretable continual learning with distribution
shifts [1.6114012813668934]
データ分散のシフトを伴う環境での継続的な学習は、いくつかの現実世界のアプリケーションでは難しい問題である。
本稿では,この問題設定に対処するために,ベイシモデル(MoB)の混合方式を提案する。
論文 参考訳(メタデータ) (2022-01-05T22:53:15Z) - X-model: Improving Data Efficiency in Deep Learning with A Minimax Model [78.55482897452417]
ディープラーニングにおける分類と回帰設定の両面でのデータ効率の向上を目標とする。
両世界の力を生かすために,我々は新しいX-モデルを提案する。
X-モデルは、特徴抽出器とタスク固有のヘッドの間でミニマックスゲームを行う。
論文 参考訳(メタデータ) (2021-10-09T13:56:48Z) - Learning Neural Models for Natural Language Processing in the Face of
Distributional Shift [10.990447273771592]
特定のデータセットでひとつのタスクを実行するための強力な神経予測器をトレーニングするNLPのパラダイムが、さまざまなアプリケーションで最先端のパフォーマンスを実現している。
データ分布が定常である、すなわち、トレーニングとテストの時間の両方で、データは固定された分布からサンプリングされる、という仮定に基づいて構築される。
この方法でのトレーニングは、人間が絶えず変化する情報の流れの中で学習し、操作できる方法と矛盾する。
データ分散がモデル寿命の経過とともにシフトすることが期待される実世界のユースケースに不適応である。
論文 参考訳(メタデータ) (2021-09-03T14:29:20Z) - Overcoming Conflicting Data when Updating a Neural Semantic Parser [5.471925005642665]
タスク指向のセマンティックパースモデルを更新するために、いくつかの例で所望の出力が変更されたときに、少量の新しいデータをどのように使うかを示す。
このような方法で更新を行う場合、潜在的な問題の1つは、競合するデータの存在である。
矛盾するデータの存在が更新の学習を著しく妨げていることを示し、その影響を軽減するためにいくつかの方法を模索する。
論文 参考訳(メタデータ) (2020-10-23T21:19:03Z) - Diversity inducing Information Bottleneck in Model Ensembles [73.80615604822435]
本稿では,予測の多様性を奨励することで,ニューラルネットワークの効果的なアンサンブルを生成する問題をターゲットにする。
そこで本研究では,潜伏変数の学習における逆損失の多様性を明示的に最適化し,マルチモーダルデータのモデリングに必要な出力予測の多様性を得る。
最も競争力のあるベースラインと比較して、データ分布の変化の下で、分類精度が大幅に向上した。
論文 参考訳(メタデータ) (2020-03-10T03:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。