論文の概要: Example Perplexity
- arxiv url: http://arxiv.org/abs/2203.08813v1
- Date: Wed, 16 Mar 2022 06:07:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-18 13:06:36.169042
- Title: Example Perplexity
- Title(参考訳): 例 パープレキシティ
- Authors: Nevin L. Zhang, Weiyan Xie, Zhi Lin, Guanfang Dong, Xiao-Hui Li, Caleb
Chen Cao, Yunpeng Wang
- Abstract要約: 例の分類の難易度を示すために、例の難易度という用語を用いる。
本稿では,実例の難易度を測定する手法を提案し,高実例の難易度に寄与する要因について検討する。
- 参考スコア(独自算出の注目度): 20.42937154905926
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Some examples are easier for humans to classify than others. The same should
be true for deep neural networks (DNNs). We use the term example perplexity to
refer to the level of difficulty of classifying an example. In this paper, we
propose a method to measure the perplexity of an example and investigate what
factors contribute to high example perplexity. The related codes and resources
are available at https://github.com/vaynexie/Example-Perplexity.
- Abstract(参考訳): 人間が他のものより分類しやすい例もある。
ディープニューラルネットワーク(DNN)に関しても同じことが言えます。
例の分類の難易度を示すために、例の難易度という用語を用いる。
本稿では,実例のパープレキシティを計測する手法を提案し,高実例のパープレキシティにどのような寄与があるかを検討する。
関連するコードとリソースはhttps://github.com/vaynexie/example-perplexityで入手できる。
関連論文リスト
- Structured Prompting: Scaling In-Context Learning to 1,000 Examples [78.41281805608081]
長さ制限を破り、文脈内学習を数千の例に拡張する構造化プロンプトを導入する。
具体的には、デモ例は、適切に設計された位置埋め込みで別々にエンコードされ、その後、再スケールされた注意機構を使用してテスト例に共同で出席する。
論文 参考訳(メタデータ) (2022-12-13T16:31:21Z) - Characterizing Datapoints via Second-Split Forgetting [93.99363547536392]
我々は、オリジナルのトレーニング例が忘れられた後(もしあれば)のエポックを追跡する補足的メトリックである$$-second-$split$$forgetting$$$time$ (SSFT)を提案する。
例えば$mislabeled$の例はすぐに忘れられ、$rare$の例は比較的ゆっくりと忘れられています。
SSFTは、(i)間違ったラベル付きサンプルを識別し、その除去により一般化が向上し、(ii)障害モードに関する洞察を提供する。
論文 参考訳(メタデータ) (2022-10-26T21:03:46Z) - Easy Batch Normalization [73.89838982331453]
簡単な例は、機械学習モデルが高い信頼性で正しく分類するサンプルである。
本稿では,標準および堅牢な精度向上のための簡単な例として,補助バッチ正規化を提案する。
論文 参考訳(メタデータ) (2022-07-18T21:01:09Z) - Modeling Exemplification in Long-form Question Answering via Retrieval [48.02725841308491]
質問応答における模範化に関する最初の計算的研究について述べる。
我々は、最先端のLFQAモデルで関連するサンプルを生成するのに苦労するだけでなく、ROUGEのような標準評価指標では、模擬品質の判断に不十分であることを示す。
論文 参考訳(メタデータ) (2022-05-19T01:38:06Z) - Well-classified Examples are Underestimated in Classification with Deep
Neural Networks [23.25956600645678]
深層分類モデルの学習の背景にある従来の知恵は、悪い分類例に焦点を当てることである。
この一般的な実践は、表現学習、エネルギー最適化、マージンの成長を妨げることが示される。
そこで本研究では,学習への貢献を復活させるために,付加的なボーナスを付与した固有例を報酬として提案する。
論文 参考訳(メタデータ) (2021-10-13T07:19:47Z) - One Representation to Rule Them All: Identifying Out-of-Support Examples
in Few-shot Learning with Generic Representations [0.8076739603800089]
本稿では,プロトタイプネットワークフレームワーク内での'out-of- supported'(OOS)例を識別する新しい手法について述べる。
本稿では,本手法が文献における既存手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-06-02T19:07:27Z) - An Empirical Comparison of Instance Attribution Methods for NLP [62.63504976810927]
本研究は,トレーニングサンプルの重要性に関して,異なるインスタンス属性が一致した度合いを評価する。
単純な検索メソッドは、グラデーションベースの方法によって識別されたものと異なるトレーニングインスタンスを生成する。
論文 参考訳(メタデータ) (2021-04-09T01:03:17Z) - Geometry matters: Exploring language examples at the decision boundary [2.7249290070320034]
BERT、CNN、fasttextは、高い難易度例において単語置換の影響を受けやすい。
YelpReviewPolarityでは、レジリエンスと摂動の相関係数-0.4と難易度との相関係数を観測する。
我々のアプローチは単純でアーキテクチャに依存しないものであり、テキスト分類モデルの華やかさの研究に利用できる。
論文 参考訳(メタデータ) (2020-10-14T16:26:13Z) - Robust and On-the-fly Dataset Denoising for Image Classification [72.10311040730815]
On-the-fly Data Denoising (ODD)は、間違ったラベルの例に対して堅牢だが、通常のトレーニングと比べて計算オーバーヘッドはほぼゼロである。
ODDはWebVisionやClothing1Mといった現実世界のデータセットを含む、幅広いデータセットで最先端の結果を達成することができる。
論文 参考訳(メタデータ) (2020-03-24T03:59:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。