論文の概要: Evaluation Methodologies in Software Protection Research
- arxiv url: http://arxiv.org/abs/2307.07300v2
- Date: Tue, 30 Apr 2024 19:11:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-02 20:30:46.693948
- Title: Evaluation Methodologies in Software Protection Research
- Title(参考訳): ソフトウェア保護研究における評価手法
- Authors: Bjorn De Sutter, Sebastian Schrittwieser, Bart Coppens, Patrick Kochberger,
- Abstract要約: Man-at-the-end (MATE)攻撃者は、攻撃されたソフトウェアが動作するシステムを完全に制御する。
企業もマルウェアの作者も、このような攻撃を防ごうとしている。
MATE攻撃者は様々な方法で目標を達成することができるため、保護の強さを測定することは依然として困難である。
- 参考スコア(独自算出の注目度): 3.0448872422956437
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Man-at-the-end (MATE) attackers have full control over the system on which the attacked software runs, and try to break the confidentiality or integrity of assets embedded in the software. Both companies and malware authors want to prevent such attacks. This has driven an arms race between attackers and defenders, resulting in a plethora of different protection and analysis methods. However, it remains difficult to measure the strength of protections because MATE attackers can reach their goals in many different ways and a universally accepted evaluation methodology does not exist. This survey systematically reviews the evaluation methodologies of papers on obfuscation, a major class of protections against MATE attacks. For 571 papers, we collected 113 aspects of their evaluation methodologies, ranging from sample set types and sizes, over sample treatment, to performed measurements. We provide detailed insights into how the academic state of the art evaluates both the protections and analyses thereon. In summary, there is a clear need for better evaluation methodologies. We identify nine challenges for software protection evaluations, which represent threats to the validity, reproducibility, and interpretation of research results in the context of MATE attacks and formulate a number of concrete recommendations for improving the evaluations reported in future research papers.
- Abstract(参考訳): Man-at-the-end (MATE)攻撃者は、攻撃されたソフトウェアが実行されるシステムを完全にコントロールし、ソフトウェアに埋め込まれた資産の機密性や完全性を壊そうとする。
企業もマルウェアの作者も、このような攻撃を防ごうとしている。
これにより、攻撃者とディフェンダーの間の武器競争が加速し、多くの異なる保護と分析方法が生み出された。
しかし、MATE攻撃者は様々な方法で目標を達成することができ、広く受け入れられている評価手法が存在しないため、保護の強さを測定することは依然として困難である。
本調査は,MATE攻撃に対する主要な保護クラスである難読化に関する論文の評価手法を体系的にレビューした。
571紙について, 試料の種類, サイズ, 試料処理, 測定結果など, 評価手法の113側面を収集した。
我々は,学術的状態が保護と分析の両方をどのように評価するかについて,詳細な知見を提供する。
要約すると、より良い評価手法の必要性は明らかである。
我々は、MATE攻撃の文脈における研究結果の妥当性、再現性、解釈の脅威を表すソフトウェア保護評価の9つの課題を特定し、今後の研究論文で報告された評価を改善するための具体的な勧告を策定する。
関連論文リスト
- A practical approach to evaluating the adversarial distance for machine learning classifiers [2.2120851074630177]
本稿では,反復的対角攻撃と認証手法を用いたより情報性の高い対角距離の推定について検討する。
我々は,我々の敵攻撃アプローチが関連する実装と比較して有効であるのに対して,認証手法は期待に届かなかった。
論文 参考訳(メタデータ) (2024-09-05T14:57:01Z) - A Survey and Evaluation of Adversarial Attacks for Object Detection [11.48212060875543]
ディープラーニングモデルは、様々なコンピュータビジョンタスクにおいて優れているが、誤った予測につながる入力データの逆例-サブトル摂動の影響を受けやすい。
この脆弱性は、自動運転車、セキュリティ監視、航空機の健康監視など、安全に重要なアプリケーションに重大なリスクをもたらす。
論文 参考訳(メタデータ) (2024-08-04T05:22:08Z) - Evaluating Copyright Takedown Methods for Language Models [100.38129820325497]
言語モデル(LM)は、潜在的に著作権のある資料を含む様々なデータに対する広範な訓練からその能力を引き出す。
本稿では,LMの著作権削除の可能性と副作用を初めて評価する。
システムプロンプトの追加、デコード時間フィルタリングの介入、未学習アプローチなど、いくつかの戦略を検討する。
論文 参考訳(メタデータ) (2024-06-26T18:09:46Z) - AttackEval: How to Evaluate the Effectiveness of Jailbreak Attacking on Large Language Models [29.92550386563915]
本稿では,大規模言語モデルに対するジェイルブレイク攻撃の有効性を評価するための,革新的なフレームワークを提案する。
粗粒度評価と細粒度評価の2つの異なる評価フレームワークを提案する。
我々は、ジェイルブレイクのプロンプトに特化して、総合的な真実データセットを開発する。
論文 参考訳(メタデータ) (2024-01-17T06:42:44Z) - A Malware Classification Survey on Adversarial Attacks and Defences [0.0]
ディープラーニングモデルはマルウェアの検出には有効だが、敵の攻撃に対して脆弱である。
このような攻撃は、検出に抵抗する悪意のあるファイルを生成し、重大なサイバーセキュリティリスクを生み出す。
近年の研究では、いくつかの敵対的攻撃と反応のアプローチが開発されている。
論文 参考訳(メタデータ) (2023-12-15T09:25:48Z) - Detecting Misuse of Security APIs: A Systematic Review [5.329280109719902]
セキュリティアプリケーションプログラミングインターフェース(API)は、ソフトウェアセキュリティの確保に不可欠である。
彼らの誤用は脆弱性を導入し、深刻なデータ漏洩と重大な財務損失につながる可能性がある。
本研究は,セキュリティAPIの誤用検出に関する文献を精査し,この重要な領域を包括的に理解する。
論文 参考訳(メタデータ) (2023-06-15T05:53:23Z) - From Adversarial Arms Race to Model-centric Evaluation: Motivating a
Unified Automatic Robustness Evaluation Framework [91.94389491920309]
テキストの敵対攻撃は、セマンティック保存されているが、入力に誤解を招く摂動を加えることでモデルの弱点を発見することができる。
既存のロバストネス評価の実践は、包括的評価、非現実的評価プロトコル、無効な対人サンプルの問題を示す可能性がある。
我々は、敵攻撃の利点を活用するために、モデル中心の評価にシフトする統合された自動ロバストネス評価フレームワークを構築した。
論文 参考訳(メタデータ) (2023-05-29T14:55:20Z) - Measuring Equality in Machine Learning Security Defenses: A Case Study
in Speech Recognition [56.69875958980474]
この研究は、学習したシステムを守るためのアプローチと、異なるサブ人口間でのセキュリティ防衛がパフォーマンス上の不平等をもたらす方法を検討する。
提案された多くの手法は、虚偽の拒絶やロバストネストレーニングの不平等といった直接的な害を引き起こす可能性がある。
本稿では, ランダム化スムースメントとニューラルリジェクションの2つの防御法の比較を行い, マイノリティ集団のサンプリング機構により, ランダム化スムースメントがより公平であることを見出した。
論文 参考訳(メタデータ) (2023-02-17T16:19:26Z) - A Unified Evaluation of Textual Backdoor Learning: Frameworks and
Benchmarks [72.7373468905418]
我々は,テキストバックドア学習の実装と評価を促進するオープンソースツールキットOpenBackdoorを開発した。
また,単純なクラスタリングに基づく防御ベースラインであるCUBEを提案する。
論文 参考訳(メタデータ) (2022-06-17T02:29:23Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Catch Me if I Can: Detecting Strategic Behaviour in Peer Assessment [61.24399136715106]
我々は、試験やホームワークの査定や採用・昇進の査定など、様々な査定課題における戦略的行動の課題について考察する。
我々はこのような操作を検出する方法の設計に重点を置いている。
具体的には、エージェントがピアのサブセットを評価し、後に集約されたランキングを最終的な順序付けとして出力する設定について検討する。
論文 参考訳(メタデータ) (2020-10-08T15:08:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。