論文の概要: A Topological Approach to Measuring Training Data Quality
- arxiv url: http://arxiv.org/abs/2306.02411v1
- Date: Sun, 4 Jun 2023 17:08:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-06 18:08:45.590647
- Title: A Topological Approach to Measuring Training Data Quality
- Title(参考訳): トレーニングデータ品質測定のためのトポロジカルアプローチ
- Authors: \'Alvaro Torras-Casas, Eduardo Paluzo-Hidalgo, Rocio Gonzalez-Diaz
- Abstract要約: 完全データセットに対するトレーニングデータ品質を測定するための新しい手法を提案する。
このようにして、選択したトレーニングデータセットがパフォーマンスを低下させる理由を説明することができます。
- 参考スコア(独自算出の注目度): 0.4125187280299248
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Data quality is crucial for the successful training, generalization and
performance of artificial intelligence models. Furthermore, it is known that
the leading approaches in artificial intelligence are notoriously data-hungry.
In this paper, we propose the use of small training datasets towards faster
training. Specifically, we provide a novel topological method based on
morphisms between persistence modules to measure the training data quality with
respect to the complete dataset. This way, we can provide an explanation of why
the chosen training dataset will lead to poor performance.
- Abstract(参考訳): データ品質は、人工知能モデルのトレーニング、一般化、パフォーマンスの成功に不可欠である。
さらに、人工知能における主要なアプローチは、データ不足であることも知られている。
本稿では,より高速なトレーニングに向けて,小規模のトレーニングデータセットの利用を提案する。
具体的には,永続モジュール間のアモルファスに基づく新しいトポロジカル手法を提案する。
このようにして、選択されたトレーニングデータセットがパフォーマンス低下につながる理由を説明することができる。
関連論文リスト
- How to Train Data-Efficient LLMs [56.41105687693619]
事前学習言語モデル(LLM)に対するデータ効率のアプローチについて検討する。
Ask-LLMと密度サンプリングがそれぞれのカテゴリで最適であることがわかった。
何百もの評価タスクと事前学習作業を含む19個のサンプルを比較したところ,Ask-LLMと密度がそれぞれのカテゴリで最適な方法であることが判明した。
論文 参考訳(メタデータ) (2024-02-15T02:27:57Z) - ALP: Action-Aware Embodied Learning for Perception [60.64801970249279]
認知のための行動認識型身体学習(ALP)について紹介する。
ALPは、強化学習ポリシーと逆ダイナミクス予測目標を最適化することにより、行動情報を表現学習に組み込む。
ALPは、複数の下流認識タスクにおいて、既存のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-16T21:51:04Z) - Phased Data Augmentation for Training a Likelihood-Based Generative Model with Limited Data [0.0]
生成モデルは現実的なイメージの作成に優れていますが、トレーニングのための広範なデータセットに依存しているため、大きな課題があります。
現在のデータ効率の手法はGANアーキテクチャに重点を置いており、他の生成モデルの訓練にギャップを残している。
位相データ拡張(phased data augmentation)は、このギャップに対処する新しい手法であり、データ分散に固有の変更を加えることなく、限られたデータシナリオでのトレーニングを最適化する。
論文 参考訳(メタデータ) (2023-05-22T03:38:59Z) - Towards Robust Dataset Learning [90.2590325441068]
本稿では,頑健なデータセット学習問題を定式化するための三段階最適化法を提案する。
ロバストな特徴と非ロバストな特徴を特徴付ける抽象モデルの下で,提案手法はロバストなデータセットを確実に学習する。
論文 参考訳(メタデータ) (2022-11-19T17:06:10Z) - Curriculum-Based Self-Training Makes Better Few-Shot Learners for
Data-to-Text Generation [56.98033565736974]
テキスト生成の困難さによって決定される並べ替え順序でラベルのないデータを活用するために,カリキュラムベースの自己学習(CBST)を提案する。
提案手法は、微調整およびタスク適応型事前学習法より優れており、データ・テキスト・ジェネレーションのわずかな設定で最先端の性能を実現することができる。
論文 参考訳(メタデータ) (2022-06-06T16:11:58Z) - Homogenization of Existing Inertial-Based Datasets to Support Human
Activity Recognition [8.076841611508486]
信号から日常生活の行動を認識する問題に対処するために,いくつかの手法が提案されている。
慣性信号に適用する深層学習技術は有効であることが証明されており、かなりの分類精度が達成されている。
人間の行動認識モデルの研究は、ほぼ完全にモデル中心である。
論文 参考訳(メタデータ) (2022-01-17T14:29:48Z) - Training Efficiency and Robustness in Deep Learning [2.6451769337566406]
ディープラーニングモデルのトレーニング効率と堅牢性を改善するためのアプローチについて検討する。
より情報的なトレーニングデータに基づく学習の優先順位付けは収束速度を高め、テストデータに対する一般化性能を向上させる。
トレーニングデータのサンプリングに対する冗長性を考慮した修正により、トレーニング速度が向上し、トレーニング信号の多様性を検出する効率的な方法が開発されていることを示す。
論文 参考訳(メタデータ) (2021-12-02T17:11:33Z) - Towards Zero-Label Language Learning [20.28186484098947]
本稿では自然言語処理(NLP)におけるゼロラベル学習について検討する。
トレーニング中、どこにでも人間の注釈付きデータを使用しず、モデルが純粋に合成データに基づいて訓練される。
GPT-3における数発の推論の成功に触発されて、教師なしデータ生成というトレーニングデータ生成手順を提案する。
論文 参考訳(メタデータ) (2021-09-19T19:00:07Z) - Low-Regret Active learning [64.36270166907788]
トレーニングに最も有用なラベル付きデータポイントを識別するオンライン学習アルゴリズムを開発した。
私たちの仕事の中心は、予測可能な(簡単な)インスタンスの低い後悔を達成するために調整された睡眠専門家のための効率的なアルゴリズムです。
論文 参考訳(メタデータ) (2021-04-06T22:53:45Z) - DAGA: Data Augmentation with a Generation Approach for Low-resource
Tagging Tasks [88.62288327934499]
線形化ラベル付き文に基づいて訓練された言語モデルを用いた新しい拡張手法を提案する。
本手法は, 教師付き設定と半教師付き設定の両方に適用可能である。
論文 参考訳(メタデータ) (2020-11-03T07:49:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。