論文の概要: Digital Red Queen: Adversarial Program Evolution in Core War with LLMs
- arxiv url: http://arxiv.org/abs/2601.03335v1
- Date: Tue, 06 Jan 2026 18:58:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-08 18:12:46.063017
- Title: Digital Red Queen: Adversarial Program Evolution in Core War with LLMs
- Title(参考訳): デジタルレッドクイーン:LLMとの核戦争における敵対的プログラム進化
- Authors: Akarsh Kumar, Ryan Bahlous-Boldi, Prafull Sharma, Phillip Isola, Sebastian Risi, Yujin Tang, David Ha,
- Abstract要約: 大規模言語モデル(LLM)は、多くの領域における問題に対する解決策の進化にますます使われてきている。
本稿では,対戦動態を取り入れたシンプルな自己再生アルゴリズムであるDigital Red Queen(DRQ)について検討する。
DRQはLLMを使って「戦士」と呼ばれる組み立てのようなプログラムを進化させ、コアウォーゲームにおける仮想マシンの制御のために互いに競い合う。
- 参考スコア(独自算出の注目度): 34.594294768808446
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) are increasingly being used to evolve solutions to problems in many domains, in a process inspired by biological evolution. However, unlike biological evolution, most LLM-evolution frameworks are formulated as static optimization problems, overlooking the open-ended adversarial dynamics that characterize real-world evolutionary processes. Here, we study Digital Red Queen (DRQ), a simple self-play algorithm that embraces these so-called "Red Queen" dynamics via continual adaptation to a changing objective. DRQ uses an LLM to evolve assembly-like programs, called warriors, which compete against each other for control of a virtual machine in the game of Core War, a Turing-complete environment studied in artificial life and connected to cybersecurity. In each round of DRQ, the model evolves a new warrior to defeat all previous ones, producing a sequence of adapted warriors. Over many rounds, we observe that warriors become increasingly general (relative to a set of held-out human warriors). Interestingly, warriors also become less behaviorally diverse across independent runs, indicating a convergence pressure toward a general-purpose behavioral strategy, much like convergent evolution in nature. This result highlights a potential value of shifting from static objectives to dynamic Red Queen objectives. Our work positions Core War as a rich, controllable sandbox for studying adversarial adaptation in artificial systems and for evaluating LLM-based evolution methods. More broadly, the simplicity and effectiveness of DRQ suggest that similarly minimal self-play approaches could prove useful in other more practical multi-agent adversarial domains, like real-world cybersecurity or combating drug resistance.
- Abstract(参考訳): 大規模言語モデル(LLM)は、生物学的進化にインスパイアされたプロセスにおいて、多くの領域における問題の解決策を進化させるのにますます使われている。
しかし、生物進化とは異なり、ほとんどのLCM進化フレームワークは静的最適化問題として定式化され、現実世界の進化過程を特徴づけるオープンエンドの対向力学を見渡せる。
本稿では,デジタル・レッド・クィーン(DRQ)という,このような「レッド・クィーン」(Red Queen)のダイナミクスを,変化する目標への連続的適応を通じて導入する,シンプルなセルフプレイ・アルゴリズムについて検討する。
DRQはLLMを使って組立のようなプログラムを進化させ、これは「戦士」と呼ばれ、コア戦争(英語版)のゲームにおいて仮想機械の制御のために互いに競い合う。
DRQの各ラウンドにおいて、モデルは新しい戦士を進化させ、全ての以前の戦士を倒し、適応した戦士の列を作り出す。
多くのラウンドにおいて、我々は戦士がより一般的になるのを観察する(人間戦士の集合に関連して)。
興味深いことに、戦士は独立して行動の多様性を減らし、自然の収束進化と同様に、汎用的な行動戦略への収束圧力を示す。
この結果は、静的な目的から動的にレッドクイーンの目的へ移行する潜在的な価値を強調している。
我々の研究は、Core Warを、人工システムにおける敵の適応を研究し、LLMベースの進化法を評価するための、リッチで制御可能なサンドボックスとして位置づけている。
より広範に、DRQの単純さと有効性は、同様に最小限のセルフプレイアプローチが、現実世界のサイバーセキュリティや薬物抵抗と戦うような、より実践的なマルチエージェントの敵ドメインで有用であることが示唆されている。
関連論文リスト
- Robust Agents in Open-Ended Worlds [4.199586801784625]
この論文では、オープンディペンデンスとマルチエージェント学習の方法論を用いて、堅牢なAIエージェントを訓練し、評価する。
まず、手続き的なコンテンツ生成を通じて多様な環境を作成するためのサンドボックスフレームワークであるMiniHackを紹介します。
次に, 2プレイヤーゼロサムゲームにおけるRLエージェントのロバスト性および一般化性を漸進的に向上させる, 対角曲線生成の新しい手法であるMaestroを提案する。
論文 参考訳(メタデータ) (2025-12-09T00:30:33Z) - Guided Self-Evolving LLMs with Minimal Human Supervision [53.111086364268566]
無誘導の自己進化システムは、しばしば訓練として素早く、または劣化する。
R-Fewはガイド付きセルフプレイチャレンジャー(Self-Play Challenger)買収フレームワークで、コンテキスト内接地と混合トレーニングを通じて、軽量な人間の監視を取り入れている。
R-Fewは、数学と一般的な推論ベンチマークで一貫した反復的な改善を実現している。
論文 参考訳(メタデータ) (2025-12-02T07:06:11Z) - Advances and Challenges in Foundation Agents: From Brain-Inspired Intelligence to Evolutionary, Collaborative, and Safe Systems [132.77459963706437]
この本は、モジュール化された脳に触発されたアーキテクチャの中で、インテリジェントなエージェントをフレーミングする、包括的な概要を提供する。
自己向上と適応的な進化のメカニズムを探求し、エージェントが自律的に能力を洗練する方法を探求する。
また、エージェントの相互作用、協力、社会構造から生じる集合的知性についても調べる。
論文 参考訳(メタデータ) (2025-03-31T18:00:29Z) - Evolution of Societies via Reinforcement Learning [10.689403855269704]
本稿では,強化学習エージェントの個体群を進化的規模でシミュレーションする手法を提案する。
政策グラディエント(PG)と対極学習意識(LOLA)の高速かつ並列化可能な実装を導出する。
我々は,異質な共学習エージェントによる非常に大きな集団の進化を,ナイーブな学習戦略と高度な学習戦略の両方の下でシミュレートすることで,我々のアプローチを実証する。
論文 参考訳(メタデータ) (2024-10-22T22:49:04Z) - Mathematics of multi-agent learning systems at the interface of game
theory and artificial intelligence [0.8049333067399385]
進化ゲーム理論と人工知能は、一見すると異なるように見える2つの分野であるが、それらは顕著なつながりと交差を持っている。
前者は集団における行動(または戦略)の進化に焦点を当て、個人が他人と対話し、模倣(または社会学習)に基づいて戦略を更新する。
一方後者は、機械学習アルゴリズムと(ディープ)ニューラルネットワークに重点を置いている。
論文 参考訳(メタデータ) (2024-03-09T17:36:54Z) - DARLEI: Deep Accelerated Reinforcement Learning with Evolutionary
Intelligence [77.78795329701367]
本稿では,進化アルゴリズムと並列化強化学習を組み合わせたフレームワークであるDARLEIを提案する。
我々はDARLEIの性能を様々な条件で特徴付け、進化形態の多様性に影響を与える要因を明らかにした。
今後DARLEIを拡張して、よりリッチな環境における多様な形態素間の相互作用を取り入れていきたいと考えています。
論文 参考訳(メタデータ) (2023-12-08T16:51:10Z) - From Motor Control to Team Play in Simulated Humanoid Football [56.86144022071756]
我々は、現実的な仮想環境でサッカーをするために、物理的にシミュレートされたヒューマノイドアバターのチームを訓練する。
一連の段階において、プレイヤーはまず、現実的な人間のような動きを実行するために、完全に関節化された身体を制御することを学習する。
その後、ドリブルやシューティングといった中級のサッカーのスキルを身につける。
最後に、彼らは他の人を意識し、チームとしてプレーし、ミリ秒のタイムスケールで低レベルのモーターコントロールのギャップを埋める。
論文 参考訳(メタデータ) (2021-05-25T20:17:10Z) - Rapidly Adaptable Legged Robots via Evolutionary Meta-Learning [65.88200578485316]
本稿では,ロボットが動的変化に迅速に適応できるメタ学習手法を提案する。
提案手法は高雑音環境における動的変化への適応性を著しく改善する。
我々は、動的に変化しながら歩くことを学習する四足歩行ロボットに対するアプローチを検証する。
論文 参考訳(メタデータ) (2020-03-02T22:56:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。