論文の概要: CH-Go: Online Go System Based on Chunk Data Storage
- arxiv url: http://arxiv.org/abs/2303.13553v1
- Date: Wed, 22 Mar 2023 14:00:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-27 17:17:36.070893
- Title: CH-Go: Online Go System Based on Chunk Data Storage
- Title(参考訳): CH-Go: チャンクデータストレージに基づくオンラインGoシステム
- Authors: H. Lu, C. Li, Y. Yang, C. Li, A. Islam
- Abstract要約: チャンクデータ記憶方式(CH-Go)に基づくオンライン囲碁システムを提案する。
実験の結果、サンプル150試合でのCH-Goのトレーニング精度は99.14%、テストセットのトレーニング精度は98.82%であった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The training and running of an online Go system require the support of
effective data management systems to deal with vast data, such as the initial
Go game records, the feature data set obtained by representation learning, the
experience data set of self-play, the randomly sampled Monte Carlo tree, and so
on. Previous work has rarely mentioned this problem, but the ability and
efficiency of data management systems determine the accuracy and speed of the
Go system. To tackle this issue, we propose an online Go game system based on
the chunk data storage method (CH-Go), which processes the format of 160k Go
game data released by Kiseido Go Server (KGS) and designs a Go encoder with 11
planes, a parallel processor and generator for better memory performance.
Specifically, we store the data in chunks, take the chunk size of 1024 as a
batch, and save the features and labels of each chunk as binary files. Then a
small set of data is randomly sampled each time for the neural network
training, which is accessed by batch through yield method. The training part of
the prototype includes three modules: supervised learning module, reinforcement
learning module, and an online module. Firstly, we apply Zobrist-guided hash
coding to speed up the Go board construction. Then we train a supervised
learning policy network to initialize the self-play for generation of
experience data with 160k Go game data released by KGS. Finally, we conduct
reinforcement learning based on REINFORCE algorithm. Experiments show that the
training accuracy of CH- Go in the sampled 150 games is 99.14%, and the
accuracy in the test set is as high as 98.82%. Under the condition of limited
local computing power and time, we have achieved a better level of
intelligence. Given the current situation that classical systems such as GOLAXY
are not free and open, CH-Go has realized and maintained complete Internet
openness.
- Abstract(参考訳): オンラインGoシステムのトレーニングと実行には、初期のGoゲームレコード、表現学習によって得られた特徴データセット、セルフプレイの経験データセット、ランダムにサンプリングされたモンテカルロツリーなど、膨大なデータを扱うための効果的なデータ管理システムのサポートが必要である。
これまでの研究では、この問題はめったに言及されていないが、データ管理システムの能力と効率は、Goシステムの精度と速度を決定する。
そこで本稿では,kiseido go server (kgs) がリリースした160k goゲームデータのフォーマットを処理し,11面のgoエンコーダ,並列プロセッサ,メモリ性能向上のためのジェネレータを設計するチャンクデータストレージ方式 (ch-go) に基づくオンラインgoゲームシステムを提案する。
具体的には、データをチャンクに格納し、チャンクサイズの1024をバッチとして、各チャンクの特徴とラベルをバイナリファイルとして保存します。
次に、ニューラルネットワークトレーニングのために、小さなデータセットをランダムにサンプリングし、yieldメソッドを介してバッチでアクセスする。
プロトタイプのトレーニング部分には、教師付き学習モジュール、強化学習モジュール、オンラインモジュールの3つのモジュールが含まれている。
まず,Zobrist誘導ハッシュ符号化を用いてGoボード構築を高速化する。
次に,教師付き学習ポリシーネットワークを訓練し,経験データ生成のためのセルフプレイを,kgsが公開する160k goゲームデータを用いて初期化する。
最後に,REINFORCEアルゴリズムに基づく強化学習を行う。
実験によると、サンプル150試合におけるch-goのトレーニング精度は99.14%であり、テストセットの精度は98.82%である。
ローカルコンピューティングの能力と時間に制限のある状況下では、より優れたインテリジェンスを実現しました。
GOLAXYのような古典的なシステムが自由でオープンでない現状を踏まえると、CH-Goは完全なインターネットオープン性を実現し維持してきた。
関連論文リスト
- SEART Data Hub: Streamlining Large-Scale Source Code Mining and Pre-Processing [13.717170962455526]
私たちはSEART Data HubというWebアプリケーションを紹介します。これは、公開GitHubリポジトリからマイニングされたコードを特徴とする大規模データセットを簡単に構築し、事前処理できるWebアプリケーションです。
簡単なWebインターフェースを通じて、研究者はマイニング基準と、実行したい特定の前処理ステップを指定できる。
リクエストを提出すると、ユーザは数時間以内に、必要なデータセットのダウンロードリンク付きのメールを受け取る。
論文 参考訳(メタデータ) (2024-09-27T11:42:19Z) - A Novel Neural Network-Based Federated Learning System for Imbalanced
and Non-IID Data [2.9642661320713555]
ほとんどの機械学習アルゴリズムは、様々なソースから収集される大量のデータに大きく依存している。
この問題に対処するため、研究者らはフェデレーション学習を導入し、クライアントデータのプライバシーを確保することによって予測モデルを学習した。
本研究では,ニューラルネットワークに基づくフェデレーション学習システムを提案する。
論文 参考訳(メタデータ) (2023-11-16T17:14:07Z) - Convolutional Neural Networks for the classification of glitches in
gravitational-wave data streams [52.77024349608834]
我々は、高度LIGO検出器のデータから過渡ノイズ信号(グリッチ)と重力波を分類する。
どちらも、Gravity Spyデータセットを使用して、スクラッチからトレーニングされた、教師付き学習アプローチのモデルを使用します。
また、擬似ラベルの自動生成による事前学習モデルの自己教師型アプローチについても検討する。
論文 参考訳(メタデータ) (2023-03-24T11:12:37Z) - A Memory Transformer Network for Incremental Learning [64.0410375349852]
本研究では,モデルが学習する時間とともに,新しいデータクラスが観察される学習環境であるクラスインクリメンタルラーニングについて検討する。
素直な問題定式化にもかかわらず、クラス増分学習への分類モデルの素直な適用は、これまで見られたクラスの「破滅的な忘れ込み」をもたらす。
これは、過去のデータのサブセットをメモリバンクに保存し、将来のタスクをトレーニングする際の忘れの防止にそれを活用することで、破滅的な忘れの問題を克服するものだ。
論文 参考訳(メタデータ) (2022-10-10T08:27:28Z) - Learning state machines via efficient hashing of future traces [10.57164270098353]
ステートマシンは、ソフトウェアシステムのような離散的なシステムをモデル化し、視覚化し、正規文法を表現するために一般的なモデルである。
データから状態マシンを受動的に学習するほとんどのアルゴリズムは、すべてのデータが最初から利用可能であると仮定し、そのデータをメモリにロードする。
本研究では,メモリ要求量を削減するため,データストリームから状態マシンを学習する手法を提案する。
論文 参考訳(メタデータ) (2022-07-04T15:24:21Z) - Learning Rate Curriculum [75.98230528486401]
ラーニングレートカリキュラム(LeRaC)と呼ばれる新しいカリキュラム学習手法を提案する。
LeRaCは、ニューラルネットワークの各レイヤ毎に異なる学習率を使用して、最初のトレーニングエポックの間、データに依存しないカリキュラムを作成する。
Smoothing(CBS)によるCurriculum(Curriculum)との比較を行った。
論文 参考訳(メタデータ) (2022-05-18T18:57:36Z) - Graph Sampling Based Deep Metric Learning for Generalizable Person
Re-Identification [114.56752624945142]
我々は、最も一般的なランダムサンプリング手法である有名なpkサンプリングは、深層メトリック学習にとって有益で効率的ではないと主張する。
大規模計量学習のためのグラフサンプリング(GS)と呼ばれる効率的なミニバッチサンプリング手法を提案する。
論文 参考訳(メタデータ) (2021-04-04T06:44:15Z) - Superiority of Simplicity: A Lightweight Model for Network Device
Workload Prediction [58.98112070128482]
本稿では,歴史観測に基づく時系列予測のための軽量な解を提案する。
ニューラルネットワークと平均予測器という2つのモデルからなる異種アンサンブル法で構成されている。
利用可能なFedCSIS 2020チャレンジデータセットの総合的なR2$スコア0.10を達成している。
論文 参考訳(メタデータ) (2020-07-07T15:44:16Z) - CycleGT: Unsupervised Graph-to-Text and Text-to-Graph Generation via
Cycle Training [63.11444020743543]
グラフ・ツー・テキスト(G2T)とテキスト・ツー・テキスト(T2G)の変換のためのディープラーニングモデルは、訓練データ不足に悩まされる。
本稿では,非並列グラフとテキストデータからブートストラップ可能な教師なしのトレーニング手法であるCycleGTについて述べる。
論文 参考訳(メタデータ) (2020-06-08T15:59:00Z) - Software-Level Accuracy Using Stochastic Computing With
Charge-Trap-Flash Based Weight Matrix [2.580765958706854]
チャージトラップフラッシュ(CTF)メモリは飽和前に大量のレベルを持つが、非線形性は変化しない。
シミュレーションにより、最適範囲の選択において、我々のシステムは正確な浮動小数点演算を用いて訓練されたモデルとほぼ同等の性能を示すことを示す。
また,Q-Learningにおける価値関数近似に使用される強化学習にも応用し,約146ステップでマウンテンカー制御問題を完成させる。
論文 参考訳(メタデータ) (2020-03-09T02:45:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。