論文の概要: Improving Data Augmentation for Robust Visual Question Answering with
Effective Curriculum Learning
- arxiv url: http://arxiv.org/abs/2401.15646v1
- Date: Sun, 28 Jan 2024 12:48:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-30 17:16:34.217246
- Title: Improving Data Augmentation for Robust Visual Question Answering with
Effective Curriculum Learning
- Title(参考訳): 効果的なカリキュラム学習によるロバストな視覚質問応答のためのデータ強化
- Authors: Yuhang Zheng, Zhen Wang, Long Chen
- Abstract要約: DAに基づくVQA手法を強化するための効果的なカリキュラム学習戦略ECLを設計する。
ECLはまず比較的簡単なサンプルでVQAモデルを訓練し、その後徐々に難しいサンプルに変化し、より価値の低いサンプルは動的に除去される。
拡張データセット全体のトレーニングと比較して、私たちのECL戦略は、より少ないトレーニングサンプルでVQAモデルのパフォーマンスをさらに向上させることができます。
- 参考スコア(独自算出の注目度): 12.647353699551081
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Being widely used in learning unbiased visual question answering (VQA)
models, Data Augmentation (DA) helps mitigate language biases by generating
extra training samples beyond the original samples. While today's DA methods
can generate robust samples, the augmented training set, significantly larger
than the original dataset, often exhibits redundancy in terms of difficulty or
content repetition, leading to inefficient model training and even compromising
the model performance. To this end, we design an Effective Curriculum Learning
strategy ECL to enhance DA-based VQA methods. Intuitively, ECL trains VQA
models on relatively ``easy'' samples first, and then gradually changes to
``harder'' samples, and less-valuable samples are dynamically removed. Compared
to training on the entire augmented dataset, our ECL strategy can further
enhance VQA models' performance with fewer training samples. Extensive
ablations have demonstrated the effectiveness of ECL on various methods.
- Abstract(参考訳): 偏見のない視覚的質問応答(VQA)モデルを学ぶために広く使用されているデータ拡張(DA)は、元のサンプルを超える追加のトレーニングサンプルを生成することで、言語のバイアスを軽減する。
今日のDAメソッドはロバストなサンプルを生成することができるが、拡張トレーニングセットはオリジナルのデータセットよりもはるかに大きく、しばしば難易度やコンテンツ反復性の点で冗長性を示し、非効率なモデルトレーニングやモデルパフォーマンスの妥協につながる。
そこで我々は,DAに基づくVQA手法を強化するための効果的なカリキュラム学習戦略ECLを設計する。
直感的には、ECLはまず比較的 `easy'' サンプル上で VQA モデルを訓練し、その後徐々に ``harder'' サンプルに変更し、より価値の低いサンプルを動的に除去する。
拡張データセット全体のトレーニングと比較して、当社のecl戦略は、トレーニングサンプルの少ないvqaモデルのパフォーマンスをさらに向上させることができます。
ECLが様々な方法に有効であることを示した。
関連論文リスト
- Probing Perfection: The Relentless Art of Meddling for Pulmonary Airway Segmentation from HRCT via a Human-AI Collaboration Based Active Learning Method [13.384578466263566]
肺気管分節症では, 注記データの不足が主訴である。
ディープラーニング(DL)メソッドは、'ブラックボックス'モデルの不透明さとパフォーマンス向上の必要性という課題に直面します。
多様なクエリ戦略とさまざまなDLモデルを組み合わせることで、これらの課題に対処する。
論文 参考訳(メタデータ) (2024-07-03T23:27:53Z) - Take the Bull by the Horns: Hard Sample-Reweighted Continual Training
Improves LLM Generalization [165.98557106089777]
大きな言語モデル(LLM)の能力を高めることが大きな課題だ。
本研究は,従来の事前学習データセットを用いたLCMの光連続訓練に関する実証的戦略から始まった。
次に、この戦略をインスタンス重み付け分散ロバスト最適化の原則化されたフレームワークに定式化します。
論文 参考訳(メタデータ) (2024-02-22T04:10:57Z) - Self-Evolved Diverse Data Sampling for Efficient Instruction Tuning [47.02160072880698]
モデル自体が等しくあるいはそれ以上に効果的であるサブセットを積極的にサンプリングできる自己進化メカニズムを導入します。
データサンプリング技術の鍵は、選択したサブセットの多様性の向上にあります。
3つのデータセットとベンチマークにわたる大規模な実験は、DiverseEvolの有効性を示している。
論文 参考訳(メタデータ) (2023-11-14T14:10:40Z) - To Repeat or Not To Repeat: Insights from Scaling LLM under Token-Crisis [50.31589712761807]
大規模言語モデル(LLM)は、事前トレーニング中にトークンに悩まされていることで知られており、Web上の高品質なテキストデータは、LSMのスケーリング制限に近づいている。
本研究では,事前学習データの再学習の結果について検討し,モデルが過度に適合する可能性が示唆された。
第2に, マルチエポック劣化の原因となる要因について検討し, データセットのサイズ, モデルパラメータ, トレーニング目標など, 重要な要因について検討した。
論文 参考訳(メタデータ) (2023-05-22T17:02:15Z) - Temporal Output Discrepancy for Loss Estimation-based Active Learning [65.93767110342502]
ラベルのないサンプルが高損失を伴っていると信じられている場合に,データアノテーションのオラクルに問い合わせる,新しいディープラーニングアプローチを提案する。
本手法は,画像分類やセマンティックセグメンテーションタスクにおける最先端の能動学習手法よりも優れた性能を実現する。
論文 参考訳(メタデータ) (2022-12-20T19:29:37Z) - Towards Robust Visual Question Answering: Making the Most of Biased
Samples via Contrastive Learning [54.61762276179205]
我々は,ビザドサンプルを最大限に活用することで,ロバストなVQAモデルを構築するための新しいコントラスト学習手法 MMBS を提案する。
具体的には、元のトレーニングサンプルからスプリアス相関に関連する情報を排除し、比較学習のための正のサンプルを構築する。
我々は,OODデータセットのVQA-CP v2において,IDデータセットのVQA v2上での堅牢なパフォーマンスを維持しながら,競争性能を達成することで,コントリビューションを検証した。
論文 参考訳(メタデータ) (2022-10-10T11:05:21Z) - Core-set Selection Using Metrics-based Explanations (CSUME) for
multiclass ECG [2.0520503083305073]
高品質なデータを選択することで、ディープラーニングモデルの性能が向上することを示す。
実験の結果,9.67%,8.69%の精度とリコール改善が得られた。
論文 参考訳(メタデータ) (2022-05-28T19:36:28Z) - CCLF: A Contrastive-Curiosity-Driven Learning Framework for
Sample-Efficient Reinforcement Learning [56.20123080771364]
我々は、強化学習のためのモデルに依存しないコントラスト駆動学習フレームワーク(CCLF)を開発した。
CCLFは、サンプルの重要性を完全に活用し、自己管理的な学習効率を向上させる。
このアプローチをDeepMind Control Suite、Atari、MiniGridベンチマークで評価する。
論文 参考訳(メタデータ) (2022-05-02T14:42:05Z) - Learn by Challenging Yourself: Contrastive Visual Representation
Learning with Hard Sample Generation [16.3860181959878]
コントラシブラーニング(CL)トレーニングのデータ効率を改善するための2つのフレームワークを提案する。
最初のアプローチは、メインモデルのためのハードサンプルを生成する。
ジェネレータは、ハードサンプルを動的にカスタマイズするために、メインモデルと共同で学習される。
共同学習では、正の対の硬さは、その類似性を減少させることで徐々に増大する。
論文 参考訳(メタデータ) (2022-02-14T02:41:43Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。