論文の概要: CVChess: A Deep Learning Framework for Converting Chessboard Images to Forsyth-Edwards Notation
- arxiv url: http://arxiv.org/abs/2511.11522v3
- Date: Tue, 18 Nov 2025 02:53:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-19 13:59:16.684565
- Title: CVChess: A Deep Learning Framework for Converting Chessboard Images to Forsyth-Edwards Notation
- Title(参考訳): CVChess: チェスボードイメージをForsyth-Edwards表記に変換するためのディープラーニングフレームワーク
- Authors: Luthira Abeykoon, Ved Patel, Gawthaman Senthilvelan, Darshan Kasundra,
- Abstract要約: 本稿では,チェスボード画像をForsyth-Edwards Notation (FEN)に変換するフレームワークであるCVChessを提案する。
本手法では,スマートフォンカメラ画像から断片認識を行うために,残層を有する畳み込みニューラルネットワーク(CNN)を用いる。
結果として得られる分類はFEN文字列としてエンコードされ、最も最適な動きを生成するためにチェスエンジンに入力することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Chess has experienced a large increase in viewership since the pandemic, driven largely by the accessibility of online learning platforms. However, no equivalent assistance exists for physical chess games, creating a divide between analog and digital chess experiences. This paper presents CVChess, a deep learning framework for converting chessboard images to Forsyth-Edwards Notation (FEN), which is later input into online chess engines to provide you with the best next move. Our approach employs a convolutional neural network (CNN) with residual layers to perform piece recognition from smartphone camera images. The system processes RGB images of a physical chess board through a multistep process: image preprocessing using the Hough Line Transform for edge detection, projective transform to achieve a top-down board alignment, segmentation into 64 individual squares, and piece classification into 13 classes (6 unique white pieces, 6 unique black pieces and an empty square) using the residual CNN. Residual connections help retain low-level visual features while enabling deeper feature extraction, improving accuracy and stability during training. We train and evaluate our model using the Chess Recognition Dataset (ChessReD), containing 10,800 annotated smartphone images captured under diverse lighting conditions and angles. The resulting classifications are encoded as an FEN string, which can be fed into a chess engine to generate the most optimal move
- Abstract(参考訳): Chessはパンデミック以来、オンライン学習プラットフォームのアクセシビリティによって、視聴者数が大幅に増加した。
しかし、物理的なチェスゲームには同等の補助が存在しないため、アナログとデジタルのチェス体験を分けることができる。
本稿では,チェスボード画像をForsyth-Edwards Notation (FEN)に変換するためのディープラーニングフレームワークであるCVChessについて述べる。
本手法では,スマートフォンカメラ画像から断片認識を行うために,残層を有する畳み込みニューラルネットワーク(CNN)を用いる。
このシステムは、エッジ検出のためのハフライン変換を用いた画像前処理、トップダウンボードアライメントを達成する投影変換、64個の個々の正方形への分割、および残りのCNNを用いた13のクラス(6つのユニークな白片、6つのユニークな黒片および空の正方形)に分類する多段階プロセスを通じて物理チェスボードのRGB画像を処理する。
残差接続は、より深い特徴抽出を可能にし、トレーニング中の精度と安定性を向上させるとともに、低レベルの視覚的特徴を維持するのに役立つ。
我々はChess Recognition Dataset (ChessReD) を用いて、様々な照明条件と角度で撮影された10,800個のアノテートされたスマートフォン画像を含むモデルを訓練し、評価する。
結果の分類はFEN文字列として符号化され、最も最適な動きを生成するためにチェスエンジンに入力される。
関連論文リスト
- Self-supervised Learning of LiDAR 3D Point Clouds via 2D-3D Neural Calibration [107.61458720202984]
本稿では,自律走行シーンにおける3次元知覚を高めるための,新しい自己教師型学習フレームワークを提案する。
本稿では,画像とポイントクラウドデータの領域ギャップを埋めるために,学習可能な変換アライメントを提案する。
我々は剛性ポーズを推定するために密度の高い2D-3D対応を確立する。
論文 参考訳(メタデータ) (2024-01-23T02:41:06Z) - End-to-End Chess Recognition [11.15543089335477]
現在のアプローチでは、チェスボードの検出、平方ローカライゼーション、ピース分類といった独立した独立したモジュールのパイプラインを使用している。
本稿では、画像から構成を直接予測するエンドツーエンドアプローチについて検討し、シーケンシャルアプローチのエラー蓄積を回避する。
合成レンダリングされ、角度が限られている既存のデータセットとは対照的に、ChessReDはスマートフォンカメラを使ってさまざまな角度から撮影されている。
ChessReDのテスト画像の15.26%で、チェスのピースの構成を認識することに成功した。
論文 参考訳(メタデータ) (2023-10-06T08:30:20Z) - Masked Autoencoders are Efficient Class Incremental Learners [64.90846899051164]
クラスインクリメンタルラーニング(CIL)は,過去の知識の破滅的な忘れを回避しつつ,新しいクラスを逐次学習することを目的としている。
本稿では,CIL の学習に Masked Autoencoders (MAEs) を用いることを提案する。
論文 参考訳(メタデータ) (2023-08-24T02:49:30Z) - Frozen CLIP Models are Efficient Video Learners [86.73871814176795]
ビデオ認識はエンドツーエンドの学習パラダイムに支配されている。
Contrastive Vision-Language Pre-Trainingの最近の進歩は、視覚認識タスクのための新しいルートの道を開く。
高品質なビデオ認識モデルを直接トレーニングする効率的なフレームワークである、効率的なビデオ学習を提案する。
論文 参考訳(メタデータ) (2022-08-06T17:38:25Z) - Memory Efficient Meta-Learning with Large Images [62.70515410249566]
数ショットの分類に対するメタ学習アプローチは、新しいタスクを学ぶために、ほんの数ステップの最適化やシングルフォワードパスを必要とするテスト時に計算的に効率的である。
この制限は、最大1000のイメージを含むタスクの全体サポートセットが、最適化ステップを取る前に処理されなければならないために生じる。
本稿では,1つのGPU上の大容量画像からなる大規模タスクのメタトレーニングを可能にする,汎用的でメモリ効率の良いエピソード・トレーニング手法であるLITEを提案する。
論文 参考訳(メタデータ) (2021-07-02T14:37:13Z) - Unsupervised Visual Representation Learning by Tracking Patches in Video [88.56860674483752]
本研究では,コンピュータビジョンシステムのプロキシタスクとしてトラッキングを用いて視覚表現を学習することを提案する。
子どもたちがプレイするキャッチゲームをベースに、視覚表現を学ぶ3D-CNNモデルのためのキャッチ・ザ・パッチ(CtP)ゲームを設計します。
論文 参考訳(メタデータ) (2021-05-06T09:46:42Z) - Determining Chess Game State From an Image [19.06796946564999]
本稿では,既存のモデルよりも桁違いに大きい3次元モデルから合成した新しいデータセットについて述べる。
従来のコンピュータビジョン技術とディープラーニングを組み合わせた新しいエンドツーエンドチェス認識システムを紹介します。
記述されたシステムでは,テストセット上での誤差率は0.23%であり,現状の28倍である。
論文 参考訳(メタデータ) (2021-04-30T13:02:13Z) - LiveChess2FEN: a Framework for Classifying Chess Pieces based on CNNs [0.0]
我々は,1秒未満で画像からチェス位置を自動的にデジタル化する機能的フレームワークを実装した。
チェスの駒の分類と組込みプラットフォーム上で効率的にマップする方法について、さまざまな畳み込みニューラルネットワークを分析した。
論文 参考訳(メタデータ) (2020-12-12T16:48:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。