論文の概要: Switchable Lightweight Anti-symmetric Processing (SLAP) with CNN to
Reduce Sample Size and Speed up Learning -- Application in Gomoku
Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2301.04746v1
- Date: Wed, 11 Jan 2023 22:55:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-13 13:23:13.228706
- Title: Switchable Lightweight Anti-symmetric Processing (SLAP) with CNN to
Reduce Sample Size and Speed up Learning -- Application in Gomoku
Reinforcement Learning
- Title(参考訳): サンプルサイズ削減と学習速度向上のためのCNNによる切換え型軽量非対称処理(SLAP) -- 五目強化学習への応用
- Authors: Chi-Hang Suen (City, University of London)
- Abstract要約: SLAPはモデルに依存しないプロトコル/関数であり、異なる変換変種を与えられた同じ出力を生成する。
Gomokuのゲームステートを使った実験では、畳み込みニューラルネットワーク学習の収束速度を83%改善した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: To replace data augmentation, this paper proposed a method called SLAP to
intensify experience to speed up machine learning and reduce the sample size.
SLAP is a model-independent protocol/function to produce the same output given
different transformation variants. SLAP improved the convergence speed of
convolutional neural network learning by 83% in the experiments with Gomoku
game states, with only one eighth of the sample size compared with data
augmentation. In reinforcement learning for Gomoku, using AlphaGo
Zero/AlphaZero algorithm with data augmentation as baseline, SLAP reduced the
number of training samples by a factor of 8 and achieved similar winning rate
against the same evaluator, but it was not yet evident that it could speed up
reinforcement learning. The benefits should at least apply to domains that are
invariant to symmetry or certain transformations. As future work, SLAP may aid
more explainable learning and transfer learning for domains that are not
invariant to symmetry, as a small step towards artificial general intelligence.
- Abstract(参考訳): 本稿では,データ拡張の代替としてSLAPという手法を提案し,機械学習を高速化し,サンプルサイズを削減する。
SLAPはモデルに依存しないプロトコル/関数であり、異なる変換変種を与えられた同じ出力を生成する。
SLAPは、データ拡張と比較してサンプルサイズの8分の1に過ぎず、ゴモクゲーム状態での実験において畳み込みニューラルネットワーク学習の収束速度を83%改善した。
また,AlphaGo Zero/AlphaZeroアルゴリズムをベースラインとした強化学習において,SLAPはトレーニングサンプル数を8倍に削減し,同じ評価器に対して同様の勝利率を達成したが,強化学習を高速化できるかどうかは明らかになっていない。
この利点は少なくとも対称性やある種の変換に不変な領域に適用すべきである。
将来の研究として、SLAPは、対称性に不変でない領域について、より説明可能な学習と伝達学習を支援することができる。
関連論文リスト
- Learning using granularity statistical invariants for classification [7.49654790139846]
本稿では、LUSIの粒度統計不変量を導入し、LUGSIを用いた学習という新しい学習パラダイムを開発する。
LUGSIは、期待されるリスクを最小限に抑えるため、強い収束機構と弱い収束機構の両方を採用している。
実験結果から、LUGSIは一般化能力の向上だけでなく、特に大規模データセットのトレーニング速度の向上も示している。
論文 参考訳(メタデータ) (2024-03-29T11:23:10Z) - Intra-class Adaptive Augmentation with Neighbor Correction for Deep
Metric Learning [99.14132861655223]
深層学習のためのクラス内適応拡張(IAA)フレームワークを提案する。
クラスごとのクラス内変動を合理的に推定し, 適応型合成試料を生成し, 硬質試料の採掘を支援する。
本手法は,検索性能の最先端手法を3%~6%向上させる。
論文 参考訳(メタデータ) (2022-11-29T14:52:38Z) - ScoreMix: A Scalable Augmentation Strategy for Training GANs with
Limited Data [93.06336507035486]
GAN(Generative Adversarial Networks)は通常、限られたトレーニングデータが利用できる場合、過度に適合する。
ScoreMixは、様々な画像合成タスクのための、新しくスケーラブルなデータ拡張手法である。
論文 参考訳(メタデータ) (2022-10-27T02:55:15Z) - ReSmooth: Detecting and Utilizing OOD Samples when Training with Data
Augmentation [57.38418881020046]
最近のDA技術は、常に強化トレーニングサンプルの多様性の必要性を満たす。
多様性の高い増分戦略は、通常、アウト・オブ・ディストリビューション(OOD)の増分サンプルを導入する。
ReSmoothは、まず、拡張サンプル中のOODサンプルを検知し、それらを活用するフレームワークである。
論文 参考訳(メタデータ) (2022-05-25T09:29:27Z) - Improving the Sample-Complexity of Deep Classification Networks with
Invariant Integration [77.99182201815763]
変換によるクラス内分散に関する事前知識を活用することは、ディープニューラルネットワークのサンプル複雑性を改善するための強力な方法である。
そこで本研究では,アプリケーションの複雑な問題に対処するために,プルーニング法に基づく新しい単項選択アルゴリズムを提案する。
本稿では,Rotated-MNIST,SVHN,CIFAR-10データセットにおけるサンプルの複雑さの改善について述べる。
論文 参考訳(メタデータ) (2022-02-08T16:16:11Z) - Exploiting Invariance in Training Deep Neural Networks [4.169130102668252]
動物視覚システムの2つの基本的なメカニズムに触発され、ディープニューラルネットワークのトレーニングに不変性を与える特徴変換技術を紹介します。
結果として得られるアルゴリズムはパラメータチューニングを少なくし、初期学習率1.0でうまくトレーニングし、異なるタスクに簡単に一般化する。
ImageNet、MS COCO、Cityscapesデータセットでテストされた当社の提案手法は、トレーニングにより少ないイテレーションを必要とし、すべてのベースラインを大きなマージンで上回り、小規模および大規模のバッチサイズのトレーニングをシームレスに行い、画像分類、オブジェクト検出、セマンティックセグメンテーションの異なるコンピュータビジョンタスクに適用します。
論文 参考訳(メタデータ) (2021-03-30T19:18:31Z) - Exploring Complementary Strengths of Invariant and Equivariant
Representations for Few-Shot Learning [96.75889543560497]
多くの現実世界では、多数のラベル付きサンプルの収集は不可能です。
少ないショット学習はこの問題に対処するための主要なアプローチであり、目的は限られた数のサンプルの存在下で新しいカテゴリに迅速に適応することです。
幾何学的変換の一般集合に対する等分散と不変性を同時に強制する新しい訓練機構を提案する。
論文 参考訳(メタデータ) (2021-03-01T21:14:33Z) - Attentional-Biased Stochastic Gradient Descent [74.49926199036481]
深層学習におけるデータ不均衡やラベルノイズ問題に対処するための証明可能な手法(ABSGD)を提案する。
本手法は運動量SGDの簡易な修正であり,各試料に個別の重み付けを行う。
ABSGDは追加コストなしで他の堅牢な損失と組み合わせられるほど柔軟である。
論文 参考訳(メタデータ) (2020-12-13T03:41:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。