論文の概要: Alphazzle: Jigsaw Puzzle Solver with Deep Monte-Carlo Tree Search
- arxiv url: http://arxiv.org/abs/2302.00384v1
- Date: Wed, 1 Feb 2023 11:41:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-02 17:33:12.092756
- Title: Alphazzle: Jigsaw Puzzle Solver with Deep Monte-Carlo Tree Search
- Title(参考訳): Alphazzle: 深いモンテカルロ木探索を備えたJigsawのパズルソルバー
- Authors: Marie-Morgane Paumard, Hedi Tabia, David Picard
- Abstract要約: シングルプレイヤーモンテカルロ木探索(MCTS)に基づく組換えアルゴリズムAlphazzleを導入する。
DRLアルゴリズムとの大きな違いは、MCTSのゲーム報酬が利用できないことである。
我々は、MCTSとニューラルネットワークが協調して働くことの重要性を示す深度アブレーション研究を行う。
- 参考スコア(独自算出の注目度): 30.43614740245788
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Solving jigsaw puzzles requires to grasp the visual features of a sequence of
patches and to explore efficiently a solution space that grows exponentially
with the sequence length. Therefore, visual deep reinforcement learning (DRL)
should answer this problem more efficiently than optimization solvers coupled
with neural networks. Based on this assumption, we introduce Alphazzle, a
reassembly algorithm based on single-player Monte Carlo Tree Search (MCTS). A
major difference with DRL algorithms lies in the unavailability of game reward
for MCTS, and we show how to estimate it from the visual input with neural
networks. This constraint is induced by the puzzle-solving task and
dramatically adds to the task complexity (and interest!). We perform an in-deep
ablation study that shows the importance of MCTS and the neural networks
working together. We achieve excellent results and get exciting insights into
the combination of DRL and visual feature learning.
- Abstract(参考訳): ジグソーパズルを解くには,パッチのシーケンスの視覚的特徴を把握し,シーケンス長とともに指数関数的に増加する解空間を効率的に探索する必要がある。
したがって、視覚深部強化学習(DRL)は、ニューラルネットワークと結合した最適化解法よりも効率よくこの問題に答えるべきである。
この仮定に基づき,マルチプレイヤーモンテカルロ木探索(mcts)に基づく再構成アルゴリズムであるalphazzleを提案する。
DRLアルゴリズムとの大きな違いは、MCTSのゲーム報酬の不有効性であり、ニューラルネットワークによる視覚入力からそれを推定する方法を示す。
この制約はパズル解決タスクによって引き起こされ、タスクの複雑さ(と興味)を劇的に増やします。
我々は,mctsとニューラルネットワークが協調して働くことの重要性を示す深部アブレーション研究を行う。
DRLと視覚的特徴学習の組み合わせについて,優れた結果とエキサイティングな洞察を得た。
関連論文リスト
- LinSATNet: The Positive Linear Satisfiability Neural Networks [116.65291739666303]
本稿では,ニューラルネットワークに人気の高い正の線形満足度を導入する方法について検討する。
本稿では,古典的なシンクホーンアルゴリズムを拡張し,複数の辺分布の集合を共同で符号化する,最初の微分可能満足層を提案する。
論文 参考訳(メタデータ) (2024-07-18T22:05:21Z) - Bridging Logic and Learning: A Neural-Symbolic Approach for Enhanced
Reasoning in Neural Models (ASPER) [0.13053649021965597]
本稿では,学習推論タスクにおけるニューラルモデルの性能向上を目的としたアプローチを提案する。
これを実現するために、Answer Set Programmingソルバとドメイン固有の専門知識を統合する。
モデルは、トレーニングとテストのためにたった12のパズルを使用して、スドゥークパズルの解法を大幅に改善したことを示している。
論文 参考訳(メタデータ) (2023-12-18T19:06:00Z) - Active search and coverage using point-cloud reinforcement learning [50.741409008225766]
本稿では,目的探索とカバレッジのためのエンドツーエンドの深層強化学習ソリューションを提案する。
RLの深い階層的特徴学習は有効であり、FPS(Fastthest Point sample)を用いることで点数を削減できることを示す。
また、ポイントクラウドに対するマルチヘッドの注意がエージェントの学習を高速化する上で有効であるが、同じ結果に収束することを示す。
論文 参考訳(メタデータ) (2023-12-18T18:16:30Z) - Monte-Carlo Tree Search for Multi-Agent Pathfinding: Preliminary Results [60.4817465598352]
マルチエージェントパスフィンディングに適したモンテカルロ木探索(MCTS)のオリジナル版を紹介する。
具体的には,エージェントの目標達成行動を支援するために,個別の経路を用いる。
また,木探索手順の分岐係数を低減するために,専用の分解手法を用いる。
論文 参考訳(メタデータ) (2023-07-25T12:33:53Z) - The Clock and the Pizza: Two Stories in Mechanistic Explanation of
Neural Networks [59.26515696183751]
ニューラルネットワークにおけるアルゴリズム発見は、時としてより複雑であることを示す。
単純な学習問題でさえ、驚くほど多様なソリューションを許容できることが示されています。
論文 参考訳(メタデータ) (2023-06-30T17:59:13Z) - Pathfinding Neural Cellular Automata [23.831530224401575]
Pathfindingは、ロボットパス計画、トランスポートルーティング、ゲームプレイなど、幅広い複雑なAIタスクの重要なサブコンポーネントである。
我々は, Breadth-First Search (BFS) のモデル,すなわち最短経路探索のハンドコードと学習を行う。
本稿では、Depth-First Search(DFS)のニューラル実装を提案し、グラフの直径を計算するためのNAAを生成するために、ニューラルネットワークBFSと組み合わせる方法について概説する。
我々は,これらの手書きNCAに触発されたアーキテクチャ変更を実験し,グリッド迷路の直径問題を解くためにゼロからネットワークをトレーニングし,高い能力の一般化を示した。
論文 参考訳(メタデータ) (2023-01-17T11:45:51Z) - Are Deep Neural Networks SMARTer than Second Graders? [85.60342335636341]
6~8歳児を対象としたビジュオ言語パズルの解法において,ニューラルネットワークの抽象化,推論,一般化能力の評価を行った。
我々のデータセットは101のユニークなパズルで構成されており、各パズルは絵の質問で構成されており、それらの解には算術、代数学、空間推論を含むいくつかの基本的なスキルが混在している必要がある。
実験により、強力なディープモデルは教師付き設定でパズルに合理的な性能を与えるが、一般化のために解析するとランダムな精度よりは良くないことが明らかになった。
論文 参考訳(メタデータ) (2022-12-20T04:33:32Z) - Understanding Deep Neural Function Approximation in Reinforcement
Learning via $\epsilon$-Greedy Exploration [53.90873926758026]
本稿では、強化学習(RL)における深部神経機能近似の理論的研究について述べる。
我々は、Besov(およびBarron)関数空間によって与えられるディープ(および2層)ニューラルネットワークによる$epsilon$-greedy探索により、バリューベースのアルゴリズムに焦点を当てる。
我々の解析は、ある平均測度$mu$の上の$L2(mathrmdmu)$-integrable空間における時間差誤差を再構成し、非イド設定の下で一般化問題に変換する。
論文 参考訳(メタデータ) (2022-09-15T15:42:47Z) - Deep Reinforcement Learning Using a Low-Dimensional Observation Filter
for Visual Complex Video Game Playing [1.2468700211588883]
高次元の観測空間、フレーム単位のフレームから大量のデータを処理する必要があるため、エージェントのアクションはディープニューラルネットワークポリシーに従って計算される。
本稿では,深層Qネットワークエージェントが,Neon Driveと呼ばれる,視覚的に複雑で現代的なビデオゲームでうまく遊べる低次元観察フィルタを提案する。
論文 参考訳(メタデータ) (2022-04-24T22:17:08Z) - Dual Monte Carlo Tree Search [0.0]
我々はDual MCTSが、様々な対称ゲームや非対称ゲームにおいて最も広く使われているニューラルMCTSアルゴリズムであるAlphaZeroよりも優れていることを示す。
デュアルMCTSは、2つの異なる検索木、単一のディープニューラルネットワーク、PUCB、スライドウィンドウ、およびepsilon-greedyアルゴリズムの組み合わせを使用して検索木のための新しい更新技術を使用しています。
論文 参考訳(メタデータ) (2021-03-21T23:34:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。