論文の概要: Statistical Effort Modelling of Game Resource Localisation Attacks
- arxiv url: http://arxiv.org/abs/2603.04261v1
- Date: Wed, 04 Mar 2026 16:46:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-05 21:29:15.408932
- Title: Statistical Effort Modelling of Game Resource Localisation Attacks
- Title(参考訳): ゲームリソース・ローカライゼーション・アタックの統計的評価
- Authors: Alessandro Sanna, Waldo Verstraete, Leonardo Regano, Davide Maiorca, Bjorn De Sutter,
- Abstract要約: 本稿では,ゲームリソースのローカライゼーション攻撃に対する統計的取り組みモデルを得るための提案手法の完全なインスタンス化を提案する。
本研究は,ソフトウェア保護ツールのユーザに対する意思決定支援のための提案手法とその実用性を確認するものである。
- 参考スコア(独自算出の注目度): 38.442593409557155
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Evidence on the effectiveness of Man-At-The-End (MATE) software protections, such as code obfuscation, has mainly come from limited empirical research. Recently, however, an automatable method was proposed to obtain statistical models of the required effort to attack (protected) software. The proposed method was sketched for a number of attack strategies but not instantiated, evaluated, or validated for those that require human interaction with the attacked software. In this paper, we present a full instantiation of the method to obtain statistical effort models for game resource localisation attacks, which represent a major step towards creating game cheats, a prime example of MATE attacks. We discuss in detail all relevant aspects of our instantiation and the results obtained for two game use cases. Our results confirm the feasibility of the proposed method and its utility for decision support for users of software protection tools. These results open up a new avenue for obtaining models of the impact of software protections on reverse engineering attacks, which will scale much better than empirical research involving human participants.
- Abstract(参考訳): コード難読化など,man-At-The-End(MATE)ソフトウェア保護の有効性に関する証拠は,主に限定的な実証研究から得られている。
しかし,近年,ソフトウェアを攻撃(保護)するために必要な労力の統計モデルを得るために,自動化可能な手法が提案されている。
提案手法は,攻撃対象ソフトウェアとのヒューマンインタラクションを必要とする人に対して,複数の攻撃戦略についてスケッチを行ったが,インスタンス化,評価,検証は行われなかった。
本稿では,MATE攻撃の主たる例として,ゲームリソースのローカライゼーション攻撃に対する統計的取り組みモデルを求める手法の完全なインスタンス化を提案する。
本稿では,2つのゲームユースケースに対して得られたインスタンス化と結果について,関連するすべての側面について詳細に論じる。
本研究は,ソフトウェア保護ツールのユーザに対する意思決定支援のための提案手法とその実用性を確認するものである。
これらの結果は、ソフトウェア保護がリバースエンジニアリング攻撃に与える影響のモデルを得るための新たな道を開く。
関連論文リスト
- A Survey on Model Extraction Attacks and Defenses for Large Language Models [55.60375624503877]
モデル抽出攻撃は、デプロイされた言語モデルに重大なセキュリティ脅威をもたらす。
この調査は、抽出攻撃と防御攻撃の包括的分類、機能抽出への攻撃の分類、データ抽出の訓練、およびプロンプトターゲット攻撃を提供する。
モデル保護,データプライバシ保護,迅速なターゲット戦略に編成された防御機構について検討し,その効果を異なる展開シナリオで評価する。
論文 参考訳(メタデータ) (2025-06-26T22:02:01Z) - Automatic Selection of Protections to Mitigate Risks Against Software Applications [2.5874041837241304]
本稿では,MATEリスクを軽減するためのソフトウェア保護の自動選択手法を提案する。
保護決定に関わる重要な要素を定式化し,ゲーム理論モデルを用いて保護プロセスの枠組みを定式化する。
提案手法は,概念実証と専門家による評価によって検証する。
論文 参考訳(メタデータ) (2025-06-23T10:11:23Z) - Attack Tree Generation via Process Mining [0.0]
本研究の目的は,攻撃ログからアタックツリーを自動的に生成する方法を提供することである。
このアプローチの主な特徴は、アタックツリーを合成するためにプロセスマイニングアルゴリズムを使用することである。
我々のアプローチは、モデルの導出と翻訳とは別に、ユーザがRisQFLanフォーマットでアタックツリーを提供するプロトタイプによってサポートされています。
論文 参考訳(メタデータ) (2024-02-19T10:55:49Z) - Evaluation Methodologies in Software Protection Research [3.0448872422956437]
Man-at-the-end (MATE)攻撃者は、攻撃されたソフトウェアが動作するシステムを完全に制御する。
企業もマルウェアの作者も、このような攻撃を防ごうとしている。
MATE攻撃者は様々な方法で目標を達成することができるため、保護の強さを測定することは依然として困難である。
論文 参考訳(メタデータ) (2023-07-14T12:24:36Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - A Unified Evaluation of Textual Backdoor Learning: Frameworks and
Benchmarks [72.7373468905418]
我々は,テキストバックドア学習の実装と評価を促進するオープンソースツールキットOpenBackdoorを開発した。
また,単純なクラスタリングに基づく防御ベースラインであるCUBEを提案する。
論文 参考訳(メタデータ) (2022-06-17T02:29:23Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Adversarial Attacks for Tabular Data: Application to Fraud Detection and
Imbalanced Data [3.2458203725405976]
逆の攻撃は、逆の例、つまり、AIシステムが間違った出力を返すように誘導するわずかに変更された入力を生成することを目的としています。
本稿では,不正検出の文脈において,最先端アルゴリズムを不均衡データに適用する新しい手法を提案する。
実験の結果,提案する修正が攻撃成功率に繋がることがわかった。
実世界の生産システムに適用した場合,提案手法は,高度なaiに基づく不正検出手法の堅牢性に重大な脅威を与える可能性を示す。
論文 参考訳(メタデータ) (2021-01-20T08:58:29Z) - Learning to Attack: Towards Textual Adversarial Attacking in Real-world
Situations [81.82518920087175]
敵攻撃は、敵の例でディープニューラルネットワークを騙すことを目的としている。
本稿では、攻撃履歴から学習し、より効率的に攻撃を開始することができる強化学習に基づく攻撃モデルを提案する。
論文 参考訳(メタデータ) (2020-09-19T09:12:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。