論文の概要: Self-Supervision is All You Need for Solving Rubik's Cube
- arxiv url: http://arxiv.org/abs/2106.03157v5
- Date: Tue, 23 May 2023 17:55:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-25 02:08:41.916965
- Title: Self-Supervision is All You Need for Solving Rubik's Cube
- Title(参考訳): ルービックキューブを解くのに必要なセルフスーパービジョン
- Authors: Kyo Takano
- Abstract要約: この研究は、ルービックキューブで表される、あらかじめ定義されたゴールで問題を解決するためのシンプルで効率的なディープラーニング手法を導入する。
このような問題に対して、目標状態から分岐するランダムスクランブル上でディープニューラルネットワークをトレーニングすることは、ほぼ最適解を達成するのに十分であることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Existing combinatorial search methods are often complex and require some
level of expertise. This work introduces a simple and efficient deep learning
method for solving combinatorial problems with a predefined goal, represented
by Rubik's Cube. We demonstrate that, for such problems, training a deep neural
network on random scrambles branching from the goal state is sufficient to
achieve near-optimal solutions. When tested on Rubik's Cube, 15 Puzzle, and
7$\times$7 Lights Out, our method outperformed the previous state-of-the-art
method DeepCubeA, improving the trade-off between solution optimality and
computational cost, despite significantly less training data. Furthermore, we
investigate the scaling law of our Rubik's Cube solver with respect to model
size and training data volume.
- Abstract(参考訳): 既存の組合せ探索法はしばしば複雑であり、ある程度の専門知識を必要とする。
本研究は,ルービックキューブで表される目標を事前に定義した組合せ問題を解くための,単純かつ効率的なディープラーニング手法を提案する。
このような問題に対して、目標状態から分岐するランダムスクランブル上でディープニューラルネットワークをトレーニングすることは、ほぼ最適解を達成するのに十分であることを示す。
ルービックキューブ,15Puzzle,7$\times$7 Lights Outの試験では,従来手法のDeepCubeAよりも優れ,学習データが少ないにもかかわらず,解の最適性と計算コストのトレードオフが改善された。
さらに,我々のルービックキューブ解法におけるモデルサイズとトレーニングデータ量に関するスケーリング則について検討した。
関連論文リスト
- Solving a Rubik's Cube Using its Local Graph Structure [13.219469732742354]
ルービックスキューブには6つの面と12の可能なアクションがあり、小さくて制約のないアクション空間に繋がる。
ルービックスキューブはグラフとして表すことができ、立方体の状態はノードであり、作用はエッジである。
グラフ畳み込みネットワークに基づいて、スクランブルされたルービックスキューブの解を見つけるための新しい探索アルゴリズムを設計する。
論文 参考訳(メタデータ) (2024-08-15T05:39:52Z) - AlphaMapleSAT: An MCTS-based Cube-and-Conquer SAT Solver for Hard
Combinatorial Problems [13.450216199781671]
本稿では,新しいモンテカルロ木探索法であるAlphaMapleSATを紹介する。
対照的に、我々の重要な革新は、演能的に駆動されるMCTSベースのルックアヘッドキューブ技術であり、効率的な立方体を見つけるためにより深い探索を行う。
論文 参考訳(メタデータ) (2024-01-24T19:37:10Z) - A Novel Normalized-Cut Solver with Nearest Neighbor Hierarchical
Initialization [107.07093621337084]
正規化カット(N-Cut)は、スペクトルクラスタリングの有名なモデルである。
1)正規化ラプラシア行列の連続スペクトル埋め込みを計算する; 2)$K$-meansまたはスペクトル回転による離散化。
有名な座標降下法に基づく新しいN-Cut解法を提案する。
論文 参考訳(メタデータ) (2023-11-26T07:11:58Z) - On Solving the Rubik's Cube with Domain-Independent Planners Using
Standard Representations [7.470087627607195]
本稿では,人気のあるPDDL言語における最初のルービックキューブ表現について述べる。
1つの比較実験で、DeepCubeAは様々な複雑さを持つ全ての問題を解き、78.5%しか最適計画ではないことがわかった。
我々の研究は、表現的選択と計画最適性の間のトレードオフに関する貴重な洞察を提供する。
論文 参考訳(メタデータ) (2023-07-25T14:52:23Z) - Multi-Phase Relaxation Labeling for Square Jigsaw Puzzle Solving [73.58829980121767]
本稿では,大域最適化に基づく二乗ジグソーパズルの解法を提案する。
この手法は完全に自動化されており、事前情報を前提とせず、未知または未知のピースオリエンテーションでパズルを扱うことができる。
論文 参考訳(メタデータ) (2023-03-26T18:53:51Z) - Learning To Dive In Branch And Bound [95.13209326119153]
グラフニューラルネットワークを用いて特定の潜水構造を学習するためのL2Diveを提案する。
我々は、変数の割り当てを予測するために生成モデルを訓練し、線形プログラムの双対性を利用して潜水決定を行う。
論文 参考訳(メタデータ) (2023-01-24T12:01:45Z) - Learning to Optimize Permutation Flow Shop Scheduling via Graph-based
Imitation Learning [70.65666982566655]
置換フローショップスケジューリング(PFSS)は製造業で広く使われている。
我々は,より安定かつ正確に収束を加速する専門家主導の模倣学習を通じてモデルを訓練することを提案する。
我々のモデルのネットワークパラメータはわずか37%に減少し、エキスパートソリューションに対する我々のモデルの解のギャップは平均6.8%から1.3%に減少する。
論文 参考訳(メタデータ) (2022-10-31T09:46:26Z) - The Machine Learning for Combinatorial Optimization Competition (ML4CO):
Results and Insights [59.93939636422896]
ML4COは、キーコンポーネントを置き換えることで最先端の最適化問題を解決することを目的としている。
このコンペティションでは、最高の実現可能なソリューションを見つけること、最も厳密な最適性証明書を生成すること、適切なルーティング設定を提供すること、という3つの課題があった。
論文 参考訳(メタデータ) (2022-03-04T17:06:00Z) - Winning solutions and post-challenge analyses of the ChaLearn AutoDL
challenge 2019 [112.36155380260655]
本稿では,ChaLearnのAutoDLチャレンジシリーズの結果と今後の課題について述べる。
その結果,一般的なニューラルネットワーク探索(NAS)は実用的ではなかったものの,DL手法が支配的であったことが示唆された。
メタラーナー"、"データインジェクタ"、"モデルセレクタ"、"モデル/ラーナー"、"評価器"を特徴とする、ハイレベルなモジュール化組織が登場した。
論文 参考訳(メタデータ) (2022-01-11T06:21:18Z) - CubeTR: Learning to Solve The Rubiks Cube Using Transformers [0.0]
ルービックス立方体は、可能な構成の五重項に対して単一の解状態を持ち、非常にスパースな報酬をもたらす。
提案モデルであるCubeTRは、より長いアクションシーケンスに参加し、スパース報酬の問題に対処する。
論文 参考訳(メタデータ) (2021-11-11T03:17:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。