論文の概要: Compensation Learning
- arxiv url: http://arxiv.org/abs/2107.11921v1
- Date: Mon, 26 Jul 2021 01:41:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-27 15:57:50.232797
- Title: Compensation Learning
- Title(参考訳): 補償学習
- Authors: Rujing Yao and Mengyang Li and Ou Wu
- Abstract要約: この研究は、機械学習にも広く使われている別の未発見の戦略、すなわち補償方法を明らかにする。
3つの具体的な新しい学習アルゴリズムが、堅牢な機械学習のために提案されている。
- 参考スコア(独自算出の注目度): 2.3526458707956643
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Weighting strategy prevails in machine learning. For example, a common
approach in robust machine learning is to exert lower weights on samples which
are likely to be noisy or hard. This study reveals another undiscovered
strategy, namely, compensating, that has also been widely used in machine
learning. Learning with compensating is called compensation learning and a
systematic taxonomy is constructed for it in this study. In our taxonomy,
compensation learning is divided on the basis of the compensation targets,
inference manners, and granularity levels. Many existing learning algorithms
including some classical ones can be seen as a special case of compensation
learning or partially leveraging compensating. Furthermore, a family of new
learning algorithms can be obtained by plugging the compensation learning into
existing learning algorithms. Specifically, three concrete new learning
algorithms are proposed for robust machine learning. Extensive experiments on
text sentiment analysis, image classification, and graph classification verify
the effectiveness of the three new algorithms. Compensation learning can also
be used in various learning scenarios, such as imbalance learning, clustering,
regression, and so on.
- Abstract(参考訳): 重み付け戦略は機械学習で一般的である。
例えば、堅牢な機械学習における一般的なアプローチは、ノイズや難易度の高いサンプルに低い重みを課すことである。
この研究は、機械学習にも広く使われている別の未発見の戦略、すなわち補償方法を明らかにする。
本研究では,補償学習を補償学習と呼び,体系的な分類法を構築した。
我々の分類では、補償学習は、補償対象、推論方法、粒度レベルに基づいて分割される。
古典的学習を含む既存の学習アルゴリズムの多くは、補償学習や一部補償の特別な場合と見なすことができる。
さらに、既存の学習アルゴリズムに補償学習を組み込むことにより、新たな学習アルゴリズム群を得ることができる。
特に、堅牢な機械学習のために3つの具体的な新しい学習アルゴリズムが提案されている。
テキスト感情分析、画像分類、グラフ分類に関する広範な実験により、3つのアルゴリズムの有効性が検証された。
補償学習は、不均衡学習、クラスタリング、回帰など、さまざまな学習シナリオでも使用することができる。
関連論文リスト
- RESTOR: Knowledge Recovery through Machine Unlearning [71.75834077528305]
Webスケールコーパスでトレーニングされた大規模な言語モデルは、望ましくないデータポイントを記憶することができる。
訓練されたモデルからこれらのデータポイントを「消去」することを目的とした、多くの機械学習手法が提案されている。
以下に示す次元に基づいて,機械学習のためのRESTORフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-31T20:54:35Z) - A Unified Framework for Neural Computation and Learning Over Time [56.44910327178975]
Hamiltonian Learningはニューラルネットワークを"時間とともに"学習するための新しい統合フレームワーク
i)外部ソフトウェアソルバを必要とせずに統合できる、(ii)フィードフォワードおよびリカレントネットワークにおける勾配に基づく学習の概念を一般化する、(iii)新しい視点で開放する、という微分方程式に基づいている。
論文 参考訳(メタデータ) (2024-09-18T14:57:13Z) - A Unified Generalization Analysis of Re-Weighting and Logit-Adjustment
for Imbalanced Learning [129.63326990812234]
そこで本研究では,データ依存型コンダクタンス(Data-dependent contraction)と呼ばれる手法を提案する。
この技術に加えて、不均衡学習のための微粒な一般化境界が確立され、再重み付けとロジット調整の謎を明らかにするのに役立つ。
論文 参考訳(メタデータ) (2023-10-07T09:15:08Z) - Ticketed Learning-Unlearning Schemes [57.89421552780526]
そこで我々は,学習のためのチケット付きモデルを提案する。
広義のコンセプトクラスに対して,空間効率のよいチケット付き学習スキームを提供する。
論文 参考訳(メタデータ) (2023-06-27T18:54:40Z) - Impact Learning: A Learning Method from Features Impact and Competition [1.3569491184708429]
本稿では,インパクト学習と呼ばれる新しい機械学習アルゴリズムを提案する。
インパクト学習は教師付き学習アルゴリズムであり、分類問題と回帰問題の両方に統合することができる。
自然増進の本質的な速度によるハイライトの影響によって調製される。
論文 参考訳(メタデータ) (2022-11-04T04:56:35Z) - Tree-Based Adaptive Model Learning [62.997667081978825]
我々はKearns-Vazirani学習アルゴリズムを拡張し、時間とともに変化するシステムを扱う。
本稿では,学習前の動作を再利用し,更新し,LearnerLibライブラリに実装し,大規模な実例で評価する学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-08-31T21:24:22Z) - Learning by Examples Based on Multi-level Optimization [12.317568257671427]
我々はLBE(Learning By Examples)と呼ばれる新しい学習手法を提案する。
提案手法では,クエリサンプルに類似したトレーニングサンプルの集合を自動的に検索し,検索したサンプルのクラスラベルを用いてクエリサンプルのラベルを予測する。
様々なベンチマークにおいて,教師付き学習と少数ショット学習の両方において,本手法の有効性を実証する実験を行った。
論文 参考訳(メタデータ) (2021-09-22T16:33:06Z) - Curriculum Learning: A Survey [65.31516318260759]
カリキュラム学習戦略は、機械学習のあらゆる分野で成功している。
我々は,様々な分類基準を考慮して,カリキュラム学習アプローチの分類を手作業で構築する。
集約型クラスタリングアルゴリズムを用いて,カリキュラム学習手法の階層木を構築する。
論文 参考訳(メタデータ) (2021-01-25T20:08:32Z) - Learning by Ignoring, with Application to Domain Adaptation [10.426533624387305]
学習を無視する学習(LBI)と呼ばれる新しい機械学習フレームワークを提案する。
本フレームワークは,各サンプルの無視変数を学習することにより,対象の分布から大きなドメインシフトを持つ事前学習データ例を自動的に識別し,事前学習プロセスから除外する。
LBIの3レベル最適化問題を効率よく解くために勾配に基づくアルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-12-28T15:33:41Z) - A Theory of Universal Learning [26.51949485387526]
普遍的な学習の確率は3つしかないことを示す。
任意の概念クラスの学習曲線は指数的あるいは任意に遅い速度で減衰することを示す。
論文 参考訳(メタデータ) (2020-11-09T15:10:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。