論文の概要: Marker Gene Method : Identifying Stable Solutions in a Dynamic Environment
- arxiv url: http://arxiv.org/abs/2506.23734v1
- Date: Mon, 30 Jun 2025 11:13:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:54.032051
- Title: Marker Gene Method : Identifying Stable Solutions in a Dynamic Environment
- Title(参考訳): マーカー生成法 : 動的環境における安定解の同定
- Authors: Hao Shi, Xi Li, Fangfang Xie,
- Abstract要約: 競合的共進化アルゴリズム(CCEA)は、しばしば不透過性やレッドクイーン効果のような複雑な力学によって妨げられる。
本稿では,「マーカー遺伝子」を動的ベンチマークとして使用することで安定性を確立するフレームワークであるマーカー遺伝子法(MGM)を紹介する。
- 参考スコア(独自算出の注目度): 12.645653825213046
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Competitive Co-evolutionary Algorithms (CCEAs) are often hampered by complex dynamics like intransitivity and the Red Queen effect, leading to unstable convergence. To counter these challenges, this paper introduces the Marker Gene Method (MGM), a framework that establishes stability by using a 'marker gene' as a dynamic benchmark and an adaptive weighting mechanism to balance exploration and exploitation. We provide rigorous mathematical proofs demonstrating that MGM creates strong attractors near Nash Equilibria within the Strictly Competitive Game framework. Empirically, MGM demonstrates its efficacy across a spectrum of challenges: it stabilizes the canonical Rock-Paper-Scissors game, significantly improves the performance of C-RMOEA/D on ZDT benchmarks, and, when augmented with a Memory Pool (MP) extension, it successfully tames the notoriously pathological Shapley Biased Game. This work presents a theoretically sound and empirically validated framework that substantially enhances the stability and robustness of CCEAs in complex competitive environments.
- Abstract(参考訳): 競合的共進化アルゴリズム(CCEA)は、しばしば不透過性やレッドクイーン効果のような複雑なダイナミクスによって妨げられ、不安定な収束をもたらす。
これらの課題に対処するために,マーカー遺伝子法 (MGM) を導入し, 動的ベンチマークとして「マーカー遺伝子」を, 探索と利用のバランスをとるための適応重み付け機構を用いて安定性を確立する。
我々は、厳密な数学的証明を行い、MGMがStrictly Competitive Gameフレームワーク内のNash Equilibria付近で強力なアトラクタを生成することを示す。
MGMは、標準的なRock-Paper-Scissorsゲームを安定化し、ZDTベンチマークでのC-RMOEA/Dの性能を大幅に改善し、メモリプール(MP)拡張で拡張すると、悪名高い病的なShapley Biased Gameをテーパーすることに成功した。
この研究は、複雑な競争環境におけるCCEAの安定性と堅牢性を大幅に向上させる理論的に健全で実証的な枠組みを提示する。
関連論文リスト
- NDCG-Consistent Softmax Approximation with Accelerated Convergence [67.10365329542365]
本稿では,ランキングの指標と直接一致した新たな損失定式化を提案する。
提案したRG損失を高効率な Alternating Least Squares (ALS) 最適化手法と統合する。
実世界のデータセットに対する実証的な評価は、我々のアプローチが同等または上位のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2025-06-11T06:59:17Z) - Predictability Shapes Adaptation: An Evolutionary Perspective on Modes of Learning in Transformers [51.992454203752686]
トランスフォーマーモデルは、IWL(In-weights Learning)とICL(In-context Learning)の2つの異なるモードで学習する。
我々は進化生物学の類似した適応戦略である遺伝的エンコーディングと表現型可塑性からインスピレーションを得ている。
我々はこれらの予測可能性の次元を実験的に運用し、トランスフォーマーのICL/IWLバランスへの影響について検討する。
論文 参考訳(メタデータ) (2025-05-14T23:31:17Z) - AlignRAG: Leveraging Critique Learning for Evidence-Sensitive Retrieval-Augmented Reasoning [61.28113271728859]
RAGは知識ベースで大規模言語モデル(LLM)を実現するためのパラダイムとして広く採用されている。
標準的なRAGパイプラインは、モデル推論が取得した証拠と整合性を維持するのに失敗することが多く、事実上の矛盾や否定的な結論につながる。
本研究では,RAGをRetrieval-Augmented Reasoningと解釈し,中心的だが未探索な問題であるtextitReasoning Misalignmentを同定する。
論文 参考訳(メタデータ) (2025-04-21T04:56:47Z) - Experience-replay Innovative Dynamics [3.994274780419491]
我々は,リビジョンプロトコルを調整可能なハイパーパラメータとして組み込んだ,新しい経験的リプレイベースMARLアルゴリズムを開発した。
我々の貢献は、MARLアルゴリズムの理論的保証を複製子力学を超えて拡張できるフレームワークを提供する。
論文 参考訳(メタデータ) (2025-01-21T15:10:14Z) - Sample-Efficient Robust Multi-Agent Reinforcement Learning in the Face of Environmental Uncertainty [40.55653383218379]
本研究は,ロバストなマルコフゲーム(RMG)の学習に焦点を当てる。
ゲーム理論平衡の様々な概念の頑健な変種を学習するために,有限サンプルの複雑性を保証するサンプル効率モデルベースアルゴリズム(DRNVI)を提案する。
論文 参考訳(メタデータ) (2024-04-29T17:51:47Z) - Maximum Entropy Heterogeneous-Agent Reinforcement Learning [45.377385280485065]
近年,多エージェント強化学習(MARL)が協調ゲームに有効であることが示されている。
我々は,サンプルの複雑さ,トレーニング不安定性,および準最適ナッシュ平衡に収束するリスクに関する問題を解決するための統一的な枠組みを提案する。
The MaxEnt framework, we propose Heterogeneous-Agent Soft Actor-Critic (HASAC) algorithm。
HASACは、Bi-DexHands、Multi-Agent MuJoCo、StarCraft Challenge、Google Research Football、Multi-Agent Particle Environment、Light Aircraft Gameの6つのベンチマークで評価する。
論文 参考訳(メタデータ) (2023-06-19T06:22:02Z) - Policy Smoothing for Provably Robust Reinforcement Learning [109.90239627115336]
入力のノルム有界対向摂動に対する強化学習の証明可能な堅牢性について検討する。
我々は、スムーズなポリシーによって得られる全報酬が、入力の摂動のノルムバウンドな逆数の下で一定の閾値以下に収まらないことを保証した証明書を生成する。
論文 参考訳(メタデータ) (2021-06-21T21:42:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。