論文の概要: Datasets for Studying Generalization from Easy to Hard Examples
- arxiv url: http://arxiv.org/abs/2108.06011v1
- Date: Fri, 13 Aug 2021 01:11:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-16 13:13:15.277199
- Title: Datasets for Studying Generalization from Easy to Hard Examples
- Title(参考訳): 簡単な例から難しい例への一般化を研究するデータセット
- Authors: Avi Schwarzschild, Eitan Borgnia, Arjun Gupta, Arpit Bansal, Zeyad
Emam, Furong Huang, Micah Goldblum, Tom Goldstein
- Abstract要約: 簡単な例から難しい例まで、一般化を研究するための新しいデータセットについて述べる。
簡単な例から難しい例まで、一般化を研究するための新しいデータセット。
簡単な例から難しい例まで、一般化を研究するための新しいデータセットについて述べる。
- 参考スコア(独自算出の注目度): 44.74658381403562
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We describe new datasets for studying generalization from easy to hard
examples.
- Abstract(参考訳): 簡単な例から難しい例への一般化を研究するための新しいデータセットについて述べる。
関連論文リスト
- Simple and effective data augmentation for compositional generalization [64.00420578048855]
MRをサンプリングし,それらを逆翻訳するデータ拡張法は,合成一般化に有効であることを示す。
注目すべきは、一様分布からのサンプリングは、テスト分布からのサンプリングとほぼ同等に実行されることである。
論文 参考訳(メタデータ) (2024-01-18T09:13:59Z) - The Unreasonable Effectiveness of Easy Training Data for Hard Tasks [84.30018805150607]
既存の事前学習言語モデルが比較的容易にハードなデータから一般化されることがしばしばあるという驚くべき結論を提示する。
本稿では,テキスト内学習,線形ヘッド,QLoRAなどの簡単な微調整手法を用いて,このような難解な一般化を実演する。
本研究は, LMの難解な一般化が, 研究課題に対して驚くほど強いことを結論づける。
論文 参考訳(メタデータ) (2024-01-12T18:36:29Z) - Data Factors for Better Compositional Generalization [60.698130703909804]
我々は、異なるデータ要素を持つ様々なトレーニングセット上で、Transformerモデルをトレーニングすることで、経験的分析を行う。
データセットの複雑さが増大すると、複数の異なる一般化課題におけるより優れた一般化行動がもたらされることを示す。
難易度の異なるトレーニング例が一般化にどう影響するかを考察する。
論文 参考訳(メタデータ) (2023-11-08T01:27:34Z) - SASS: Data and Methods for Subject Aware Sentence Simplification [0.0]
本稿では,主観認識文の単純化を行う学習モデルを対象としたデータセットを提供する。
また、抽象的な要約に使われるモデルアーキテクチャにインスパイアされたデータセット上でモデルをテストします。
論文 参考訳(メタデータ) (2023-03-26T00:02:25Z) - Are Hard Examples also Harder to Explain? A Study with Human and
Model-Generated Explanations [82.12092864529605]
説明可能性とサンプル硬度の関係について検討する。
我々は人による説明と GPT-3 による説明との比較を行った。
また、文脈内例の難易度が GPT-3 の説明の質に影響を及ぼすことも判明した。
論文 参考訳(メタデータ) (2022-11-14T16:46:14Z) - Easy Batch Normalization [73.89838982331453]
簡単な例は、機械学習モデルが高い信頼性で正しく分類するサンプルである。
本稿では,標準および堅牢な精度向上のための簡単な例として,補助バッチ正規化を提案する。
論文 参考訳(メタデータ) (2022-07-18T21:01:09Z) - Unobserved Local Structures Make Compositional Generalization Hard [38.00335865058236]
特定のテストインスタンスにおける合成一般化の難しさについて検討する。
テストインスタンスがトレーニング時に観察されなかった局所構造を含む場合、テストインスタンスは難しい。
本研究では, 難易度の高い構成分割を創出するために, 局所構造を利用することができることを示す。
論文 参考訳(メタデータ) (2022-01-15T18:03:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。