論文の概要: Game-Of-Goals: Using adversarial games to achieve strategic resilience
- arxiv url: http://arxiv.org/abs/2502.11295v1
- Date: Sun, 16 Feb 2025 22:34:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-18 14:09:29.811435
- Title: Game-Of-Goals: Using adversarial games to achieve strategic resilience
- Title(参考訳): Game-Of-Goals: 戦略的レジリエンスを達成するために敵ゲームを使用する
- Authors: Aditya Ghose, Asjad Khan,
- Abstract要約: 競合するエージェントは、最大限の逆境で行動していると仮定する。
ゲームツリー探索法を用いて最適な実行戦略を選択する。
評価関数は、実行計画を修正可能にしたいという考えに基づいています。
- 参考スコア(独自算出の注目度): 2.0902176621159128
- License:
- Abstract: Our objective in this paper is to develop a machinery that makes a given organizational strategic plan resilient to the actions of competitor agents (adverse environmental actions). We assume that we are given a goal tree representing strategic goals (can also be seen business requirements for a software systems) with the assumption that competitor agents are behaving in a maximally adversarial fashion(opposing actions against our sub goals or goals in general). We use game tree search methods (such as minimax) to select an optimal execution strategy(at a given point in time), such that it can maximize our chances of achieving our (high level) strategic goals. Our machinery helps us determine which path to follow(strategy selection) to achieve the best end outcome. This is done by comparing alternative execution strategies available to us via an evaluation function. Our evaluation function is based on the idea that we want to make our execution plans defensible(future-proof) by selecting execution strategies that make us least vulnerable to adversarial actions by the competitor agents. i.e we want to select an execution strategy such that its leaves minimum room(or options) for the adversary to cause impediment/damage to our business goals/plans.
- Abstract(参考訳): 本研究の目的は, 競合するエージェントの行動に対して, 組織的戦略計画をレジリエンスさせる機械を開発することである。
我々は、競合するエージェントが最大限の逆境(私たちのサブゴールやゴールに対するアクション全般)で行動していると仮定して、戦略的目標(ソフトウェアシステムのビジネス要件も見られる)を表すゴールツリーを与えられると仮定する。
ゲームツリー探索手法(ミニマックスなど)を用いて最適な実行戦略(所定時点)を選択することで,(高いレベルの)戦略目標を達成する可能性を最大化することができる。
私たちの機械は、最適な結果を得るためにどの経路(戦略選択)を辿るかを決定するのに役立ちます。
これは、評価関数を通じて利用可能な代替実行戦略を比較することで実現されます。
評価関数は、競合エージェントの敵行為に対して脆弱な実行戦略を選択することで、実行計画を防御(未来的)にしたいという考えに基づいています。
つまり、敵が我々のビジネス目標や計画に障害や損害を与えるための最小限のスペース(または選択肢)を残した実行戦略を選択したいのです。
関連論文リスト
- K-Level Reasoning: Establishing Higher Order Beliefs in Large Language Models for Strategic Reasoning [76.3114831562989]
マルチエージェント環境で戦略を動的に適応させるためには、LLM(Large Language Model)エージェントが必要である。
我々は,「K-Level Reasoning with Large Language Models (K-R)」という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-02T16:07:05Z) - LTLf Best-Effort Synthesis in Nondeterministic Planning Domains [27.106071554421664]
完全可観測非決定性領域(FOND)におけるベストエフォート戦略(いわゆる計画)について検討する。
非決定論的計画領域の特異性を生かしたベストエフォート戦略を合成するゲーム理論合成手法を提案する。
論文 参考訳(メタデータ) (2023-08-29T10:10:41Z) - Parametrically Retargetable Decision-Makers Tend To Seek Power [91.93765604105025]
完全に観察可能な環境では、ほとんどの報酬関数は、オプションを開いて生き続けることで力を求める最適なポリシーを持つ。
我々は、最適からランダムまで、AI意思決定のモデルから、学習と環境との対話によって得られる選択まで、さまざまなモデルを検討します。
定性的に異なる意思決定手順がエージェントに力を求めるインセンティブを与えることを示す。
論文 参考訳(メタデータ) (2022-06-27T17:39:23Z) - Deceptive Planning for Resource Allocation [29.673067819076515]
我々は、敵の環境をナビゲートする自律エージェントのチームが、目標とする場所のセットにリソースを割り当てることで、タスクを達成することを目指している。
環境の敵は、自律的なチームの振る舞いを観察し、その目的を推測し、チームに対して反応する。
敵を欺くことができるように自律チームの密度を制御するための戦略を提案する。
論文 参考訳(メタデータ) (2022-06-02T21:23:16Z) - Mixed Strategies for Security Games with General Defending Requirements [37.02840909260615]
Stackelbergのセキュリティゲームはディフェンダーとアタッカーの間で行われ、ディフェンダーは複数のターゲットに限られたリソースを割り当てる必要がある。
そこで本研究では,ごく少数の戦略のみを用いる混合戦略を計算し,効率的な近似パチングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-04-26T08:56:39Z) - Who Leads and Who Follows in Strategic Classification? [82.44386576129295]
戦略分類における役割の順序は、決定者とエージェントが互いの行動に適応する相対周波数によって決定される。
更新頻度を自由に選択できる意思決定者は,いずれの順番でスタックルバーグ均衡に収束する学習力学を誘導できることを示す。
論文 参考訳(メタデータ) (2021-06-23T16:48:46Z) - The Design Of "Stratega": A General Strategy Games Framework [62.997667081978825]
Strategaはターンベースおよびリアルタイム戦略ゲームを作成するためのフレームワークである。
このフレームワークは、統計的フォワードプランニング(SFP)エージェントに焦点を当てて構築されている。
我々は,このフレームワークとそのエージェントの開発が,戦略ゲームにおける複雑な意思決定プロセスの理解に役立つことを願っている。
論文 参考訳(メタデータ) (2020-09-11T20:02:00Z) - Automatic Curriculum Learning through Value Disagreement [95.19299356298876]
新しい未解決タスクを継続的に解決することが、多様な行動を学ぶための鍵です。
エージェントが複数の目標を達成する必要があるマルチタスク領域では、トレーニング目標の選択はサンプル効率に大きな影響を与える可能性がある。
そこで我々は,エージェントが解決すべき目標のための自動カリキュラムを作成することを提案する。
提案手法は,13のマルチゴールロボットタスクと5つのナビゲーションタスクにまたがって評価し,現在の最先端手法よりも高い性能を示す。
論文 参考訳(メタデータ) (2020-06-17T03:58:25Z) - Efficient exploration of zero-sum stochastic games [83.28949556413717]
ゲームプレイを通じて,ゲームの記述を明示せず,託宣のみにアクセス可能な,重要で一般的なゲーム解決環境について検討する。
限られたデュレーション学習フェーズにおいて、アルゴリズムは両方のプレイヤーのアクションを制御し、ゲームを学習し、それをうまくプレイする方法を学習する。
私たちのモチベーションは、クエリされた戦略プロファイルの支払いを評価するのにコストがかかる状況において、利用可能性の低い戦略を迅速に学習することにあります。
論文 参考訳(メタデータ) (2020-02-24T20:30:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。