論文の概要: Evolutionary Transfer Learning for Dragonchess
- arxiv url: http://arxiv.org/abs/2603.15297v1
- Date: Mon, 16 Mar 2026 13:58:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 18:28:58.404788
- Title: Evolutionary Transfer Learning for Dragonchess
- Title(参考訳): トンボの進化的移動学習
- Authors: Jim O'Connor, Annika Hoag, Sarah Goyette, Gary B. Parker,
- Abstract要約: 我々はDragonchessをAI研究のための新しいテストベッドとして紹介し、コミュニティ向けのオープンソースのPythonベースのゲームエンジンを提供する。
本研究は,主要なチェスエンジンであるストックフィッシュから直接評価関数を適応させることにより,進化的移行学習について検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Dragonchess, a three-dimensional chess variant introduced by Gary Gygax, presents unique strategic and computational challenges that make it an ideal environment for studying the transfer of artificial intelligence (AI) heuristics across domains. In this work, we introduce Dragonchess as a novel testbed for AI research and provide an open-source, Python-based game engine for community use. Our research investigates evolutionary transfer learning by adapting heuristic evaluation functions directly from Stockfish, a leading chess engine, and subsequently optimizing them using Covariance Matrix Adaptation Evolution Strategy (CMA-ES). Initial trials showed that direct heuristic transfers were inadequate due to Dragonchess's distinct multi-layer structure and movement rules. However, evolutionary optimization significantly improved AI agent performance, resulting in superior gameplay demonstrated through empirical evaluation in a 50-round Swiss-style tournament. This research establishes the effectiveness of evolutionary methods in adapting heuristic knowledge to structurally complex, previously unexplored game domains.
- Abstract(参考訳): Gary Gygax氏が導入した3次元チェス変種であるDragonchessは、独自の戦略的および計算上の課題を提示し、人工知能(AI)ヒューリスティックスのドメイン間での移動を研究する上で理想的な環境である。
本研究では,DragonchessをAI研究のための新しいテストベッドとして紹介し,コミュニティ利用のためのオープンソースのPythonベースのゲームエンジンを提供する。
本研究は,主要なチェスエンジンであるストックフィッシュから直接ヒューリスティックな評価関数を適用した上で,CMA-ES(Covariance Matrix Adaptation Evolution Strategy)を用いてそれらを最適化することによって,進化的移行学習について検討する。
最初の試験では、ドラゴンチェスの異なる多層構造と運動規則のために直接ヒューリスティック移動が不十分であることが示された。
しかし、進化的最適化によりAIエージェントのパフォーマンスが大幅に向上し、その結果、50ラウンドのスイス式トーナメントでの実証的な評価により、優れたゲームプレイが実証された。
この研究は、構造的に複雑で以前は探索されていないゲーム領域にヒューリスティックな知識を適用するための進化的手法の有効性を確立する。
関連論文リスト
- EvoX: Meta-Evolution for Automated Discovery [115.89434419482797]
EvoXは、独自の進化過程を最適化する適応進化法である。
進捗に応じて、事前のソリューションが選択され、どのように変化するかを継続的に更新する。
AlphaEvolve, OpenEvolve, GEPA, ShinkaEvolveなどの既存のAI駆動の進化的手法を、タスクの大部分で上回っている。
論文 参考訳(メタデータ) (2026-02-26T18:54:41Z) - Controlled Self-Evolution for Algorithmic Code Optimization [33.82967000330864]
自己進化的手法は、反復的な"生成-検証-精細"サイクルを通じてコード生成を強化する。
既存のアプローチでは、限られた予算内で優れた複雑さを持つソリューションを見つけることができません。
本稿では3つのキーコンポーネントからなる制御自己進化(CSE)を提案する。
論文 参考訳(メタデータ) (2026-01-12T09:23:13Z) - ThetaEvolve: Test-time Learning on Open Problems [110.5756538358217]
In-context LearningとReinforcement Learning(RL)の両方をテスト時に効率的にスケールするために、AlphaEvolveを単純化し拡張するオープンソースのフレームワークであるThetaEvolveを紹介します。
テスト時にRLを使用するThetaEvolveは、推論のみのベースラインよりも一貫して優れています。
論文 参考訳(メタデータ) (2025-11-28T18:58:14Z) - Evolution-based Region Adversarial Prompt Learning for Robustness Enhancement in Vision-Language Models [52.8949080772873]
本稿では,ER-APTと呼ばれる進化型領域逆アプティブチューニング手法を提案する。
各トレーニングイテレーションでは、まず従来の勾配法を用いてAEを生成する。
次に、AEsを最適化するために、選択、突然変異、交差を含む遺伝的進化機構を適用する。
最終進化型AEは、従来の単点対向的な高速チューニングの代わりに、地域ベースの対向最適化を実現するために用いられる。
論文 参考訳(メタデータ) (2025-03-17T07:08:47Z) - Learning Evolution via Optimization Knowledge Adaptation [50.280704114978384]
進化的アルゴリズム(EA)は、複雑なタスクの解を見つけるために、進化的演算子を通して集団を維持する。
最適化知識適応進化モデル(okaEM)を導入し,最適化能力を向上する。
okaEMは、様々な知識伝達設定におけるパフォーマンス向上のために、事前知識を活用する。
自然選択と遺伝子組換えの原理をエミュレートすることができる。
論文 参考訳(メタデータ) (2025-01-04T05:35:21Z) - DARLEI: Deep Accelerated Reinforcement Learning with Evolutionary
Intelligence [77.78795329701367]
本稿では,進化アルゴリズムと並列化強化学習を組み合わせたフレームワークであるDARLEIを提案する。
我々はDARLEIの性能を様々な条件で特徴付け、進化形態の多様性に影響を与える要因を明らかにした。
今後DARLEIを拡張して、よりリッチな環境における多様な形態素間の相互作用を取り入れていきたいと考えています。
論文 参考訳(メタデータ) (2023-12-08T16:51:10Z) - Evolutionary Multi-Armed Bandits with Genetic Thompson Sampling [13.173307471333619]
遺伝的トンプソンサンプリング(英語版)は、エージェントの集団を維持し、エリート選択、クロスオーバー、突然変異などの遺伝的原理でそれらを更新するバンディットアルゴリズムである。
EvoBanditはWebベースのインタラクティブな視覚化で、学習プロセス全体を通して読者をガイドし、オンザフライで軽量な評価を行う。
論文 参考訳(メタデータ) (2022-04-26T22:41:17Z) - Transfer Dynamics in Emergent Evolutionary Curricula [4.692078300163222]
PINSKYは、ゲームベースのドメインにおける神経進化によるオープンエンド学習システムである。
本稿では、ある進化的分岐(種)から別の進化的分岐(種)へ政策を移す役割に焦点を当てる。
最も洞察に富んだ発見は、種間移動は稀ではあるが、システムの成功に不可欠であるということである。
論文 参考訳(メタデータ) (2022-03-03T21:10:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。