論文の概要: Can LLMs effectively provide game-theoretic-based scenarios for cybersecurity?
- arxiv url: http://arxiv.org/abs/2508.05670v1
- Date: Mon, 04 Aug 2025 08:57:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-11 20:39:05.914833
- Title: Can LLMs effectively provide game-theoretic-based scenarios for cybersecurity?
- Title(参考訳): LLMは、サイバーセキュリティのためのゲーム理論ベースのシナリオを効果的に提供できるか?
- Authors: Daniele Proverbio, Alessio Buscemi, Alessandro Di Stefano, The Anh Han, German Castignani, Pietro Liò,
- Abstract要約: 大規模言語モデル(LLM)は、コンピュータシステムのセキュリティに新しいツールと課題を提供する。
従来のゲーム理論フレームワークが,LLM駆動型アクターやボットの動作を効果的に捉えることができるかどうかを検討する。
- 参考スコア(独自算出の注目度): 51.96049148869987
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Game theory has long served as a foundational tool in cybersecurity to test, predict, and design strategic interactions between attackers and defenders. The recent advent of Large Language Models (LLMs) offers new tools and challenges for the security of computer systems; In this work, we investigate whether classical game-theoretic frameworks can effectively capture the behaviours of LLM-driven actors and bots. Using a reproducible framework for game-theoretic LLM agents, we investigate two canonical scenarios -- the one-shot zero-sum game and the dynamic Prisoner's Dilemma -- and we test whether LLMs converge to expected outcomes or exhibit deviations due to embedded biases. Our experiments involve four state-of-the-art LLMs and span five natural languages, English, French, Arabic, Vietnamese, and Mandarin Chinese, to assess linguistic sensitivity. For both games, we observe that the final payoffs are influenced by agents characteristics such as personality traits or knowledge of repeated rounds. Moreover, we uncover an unexpected sensitivity of the final payoffs to the choice of languages, which should warn against indiscriminate application of LLMs in cybersecurity applications and call for in-depth studies, as LLMs may behave differently when deployed in different countries. We also employ quantitative metrics to evaluate the internal consistency and cross-language stability of LLM agents, to help guide the selection of the most stable LLMs and optimising models for secure applications.
- Abstract(参考訳): ゲーム理論は、アタッカーとディフェンダーの間の戦略的相互作用をテスト、予測、設計するためのサイバーセキュリティの基礎的ツールとして長年使われてきた。
近年のLLM(Large Language Models)の出現は,コンピュータシステムのセキュリティに新たなツールや課題をもたらしている。
ゲーム理論的LLMエージェントの再現可能なフレームワークを用いて,一発ゼロサムゲームと動的プリソナーのジレンマという2つの標準シナリオを調査し,LLMが期待結果に収束するか,あるいは組込みバイアスによる偏差を示すかを検証した。
我々の実験は、4つの最先端のLLMと5つの自然言語(英語、フランス語、アラビア語、ベトナム語、中国語)にまたがって言語感度を評価する。
両ゲームとも、最終支払いは性格特性や繰り返しラウンドの知識といったエージェント特性の影響を受けている。
さらに、サイバーセキュリティアプリケーションにおけるLLMの非差別的適用に対して警告すべき言語の選択に対する最終的な支払いの予期せぬ感度を明らかにし、異なる国に展開する際にはLLMが異なる振る舞いをする可能性があるため、詳細な研究を求める。
また, LLMエージェントの内部整合性および言語間安定性を評価するための定量的指標を用いて, 最も安定なLCMの選択とセキュアなアプリケーションのためのモデル最適化を支援する。
関連論文リスト
- Unique Security and Privacy Threats of Large Language Model: A Comprehensive Survey [46.19229410404056]
大規模言語モデル(LLM)は自然言語処理において顕著な進歩を遂げた。
これらのモデルは、強力な言語理解と生成能力を示すために、広大なデータセットでトレーニングされている。
プライバシーとセキュリティの問題は、そのライフサイクルを通じて明らかになっている。
論文 参考訳(メタデータ) (2024-06-12T07:55:32Z) - MAgIC: Investigation of Large Language Model Powered Multi-Agent in Cognition, Adaptability, Rationality and Collaboration [98.18244218156492]
大規模言語モデル(LLM)は、非常に高度な自然言語処理を持つ。
アプリケーションがマルチエージェント環境に拡大するにつれて、包括的な評価フレームワークの必要性が生じる。
この研究は、マルチエージェント設定内でLLMを評価するための新しい競合ベースのベンチマークフレームワークを導入している。
論文 参考訳(メタデータ) (2023-11-14T21:46:27Z) - Leveraging Word Guessing Games to Assess the Intelligence of Large
Language Models [105.39236338147715]
この論文は人気のある言語ゲーム『Who is Spy』にインスパイアされている。
本研究は,LEMの表現と変形能力を評価するためのDEEPを開発する。
次に、インタラクティブなマルチエージェントフレームワークであるSpyGameを紹介します。
論文 参考訳(メタデータ) (2023-10-31T14:37:42Z) - LLMs as Hackers: Autonomous Linux Privilege Escalation Attacks [0.0]
言語モデル(LLM)と浸透試験の共通点について検討する。
本稿では,LLMの(倫理的)ハッキングに対する有効性を評価するための,完全自動特権エスカレーションツールを提案する。
我々は,異なるコンテキストサイズ,コンテキスト内学習,任意の高レベルメカニズム,メモリ管理技術の影響を分析する。
論文 参考訳(メタデータ) (2023-10-17T17:15:41Z) - Are Large Language Models Really Robust to Word-Level Perturbations? [68.60618778027694]
本稿では,事前学習した報酬モデルを診断ツールとして活用する,新たな合理的評価手法を提案する。
より長い会話は、質問を理解する能力の観点から言語モデルの包括的把握を示す。
この結果から,LLMは日常言語でよく使われる単語レベルの摂動に対する脆弱性をしばしば示している。
論文 参考訳(メタデータ) (2023-09-20T09:23:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。