論文の概要: Improving Phishing Resilience with AI-Generated Training: Evidence on Prompting, Personalization, and Duration
- arxiv url: http://arxiv.org/abs/2512.01893v1
- Date: Mon, 01 Dec 2025 17:13:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.984095
- Title: Improving Phishing Resilience with AI-Generated Training: Evidence on Prompting, Personalization, and Duration
- Title(参考訳): AI生成トレーニングによるフィッシングレジリエンスの改善 - プロンプティング、パーソナライゼーション、期間に関するエビデンス
- Authors: Francesco Greco, Giuseppe Desolda, Cesare Tucci, Andrea Esposito, Antonio Curci, Antonio Piccinno,
- Abstract要約: 本稿では、フィッシングレジリエンストレーニングを生成する自律エンジンとして、LLM(Large Language Models)を実験的に検証する。
我々は,AIが生成したコンテンツが,採用する特定のプロンプト戦略によらず,事前学習に有意な利益をもたらすことを実証した。
- 参考スコア(独自算出の注目度): 3.639013246937792
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Phishing remains a persistent cybersecurity threat; however, developing scalable and effective user training is labor-intensive and challenging to maintain. Generative Artificial Intelligence offers an interesting opportunity, but empirical evidence on its instructional efficacy remains scarce. This paper provides an experimental validation of Large Language Models (LLMs) as autonomous engines for generating phishing resilience training. Across two controlled studies (N=480), we demonstrate that AI-generated content yields significant pre-post learning gains regardless of the specific prompting strategy employed. Study 1 (N=80) compares four prompting techniques, finding that even a straightforward "direct-profile" strategy--simply embedding user traits into the prompt--produces effective training material. Study 2 (N=400) investigates the scalability of this approach by testing personalization and training duration. Results show that complex psychometric personalization offers no measurable advantage over well-designed generic content, while longer training duration provides a modest boost in accuracy. These findings suggest that organizations can leverage LLMs to generate high-quality, effective training at scale without the need for complex user profiling, relying instead on the inherent capabilities of the model.
- Abstract(参考訳): しかし、スケーラブルで効果的なユーザトレーニングを開発することは、労働集約的でメンテナンスが難しい。
生成人工知能は興味深い機会を提供するが、その教育効果に関する実証的な証拠は乏しい。
本稿では、フィッシングレジリエンストレーニングを生成する自律エンジンとして、LLM(Large Language Models)を実験的に検証する。
2つの制御された研究 (N=480) を通して、AI生成コンテンツは、採用される特定の促進戦略にかかわらず、重要な事前学習ゲインをもたらすことを示した。
研究1(N=80)は、4つのプロンプト技術を比較し、単純な"直接的"戦略 — ユーザの特性をプロンプトに埋め込むことで、効果的なトレーニング材料を生み出すことを発見した。
研究2(N=400)は、パーソナライズとトレーニング期間をテストすることにより、このアプローチのスケーラビリティを調査する。
その結果、複雑な心理測定によるパーソナライゼーションは、よく設計されたジェネリックコンテンツよりも測定可能な優位性は得られず、訓練期間が長ければ長いほど精度は緩やかに向上することがわかった。
これらの結果から,LLMを活用すれば,複雑なユーザプロファイリングを必要とせず,モデル固有の機能に依存することなく,高品質で効果的なトレーニングを大規模に作成することが可能であることが示唆された。
関連論文リスト
- The Path of Self-Evolving Large Language Models: Achieving Data-Efficient Learning via Intrinsic Feedback [51.144727949988436]
強化学習(RL)は、大規模言語モデル(LLM)の推論能力を高める可能性を実証した。
本研究では,最小限のデータを用いたLLによるLLMの改善について検討する。
データ依存を最小限に抑えるため、自己認識に基礎を置いた2つの新しいメカニズムを導入する。
論文 参考訳(メタデータ) (2025-10-03T06:32:10Z) - Towards High Data Efficiency in Reinforcement Learning with Verifiable Reward [54.708851958671794]
オフラインとオンラインの両方のデータ選択のための最適化戦略を組み合わせた,データ効率のよいポリシ最適化パイプラインを提案する。
オフラインフェーズでは、多様性、影響、適切な難易度に基づいて、トレーニングサンプルの高品質なサブセットをキュレートする。
オンラインRLVRトレーニングにおいて、探索可能性の低いサンプルを動的にフィルタリングするサンプルレベルの探索性指標を導入する。
論文 参考訳(メタデータ) (2025-09-01T10:04:20Z) - Can Large Reasoning Models Self-Train? [51.0277533541394]
多数決投票を簡単な自己フィードバック機構として利用し、強化学習において自己学習が持続できるかどうかを検討する。
この基本的なアプローチは、モデルの推論性能だけでなく、次のRLイテレーションでより良い品質フィードバックを生成する能力も改善します。
しかし、我々の分析では、このような自己学習パラダイムの限界も明らかにしています - 自己回帰の長いRLは、報酬のハッキングにつながるため、突然、そして完全なパフォーマンスが崩壊します。
論文 参考訳(メタデータ) (2025-05-27T17:16:00Z) - How Difficulty-Aware Staged Reinforcement Learning Enhances LLMs' Reasoning Capabilities: A Preliminary Experimental Study [16.441081996257576]
本稿では,難易度の高い強化学習戦略が推論性能を大幅に向上させる方法について,厳密な実験的検討を行った。
本研究は,RLの最適化を著しく向上させることを特徴とする,明確な難易度に応じて,戦略的にトレーニングデータを選択することを示す。
私たちはデータセットをGitHubとHugging Faceでオープンソース化します。
論文 参考訳(メタデータ) (2025-04-01T14:18:38Z) - Evolving LLMs' Self-Refinement Capability via Synergistic Training-Inference Optimization [53.93621974137829]
自己精製(Self-Refinement)とは、モデルが自身のレスポンスを改訂し、改善された出力を生成する能力を指す。
EVOLVEは、反復的なトレーニングを通じて自己精製の進化を導き、追跡するためのフレームワークである。
固有モデル能力のより広範な自己改善を実現するために自己改善を活用する可能性を実証する。
論文 参考訳(メタデータ) (2025-02-08T15:21:55Z) - Salient Information Preserving Adversarial Training Improves Clean and Robust Accuracy [4.737519767218666]
SIP-AT(Salient Information Preserving Adversarial Training)を紹介する。
SIP-ATは、従来の敵の訓練によって引き起こされる堅牢性-正確性トレードオフを緩和するための直感的な方法である。
SIP-ATは、複数のエプシロンレベルの攻撃に対して高い堅牢性を保ちながら、モデルのクリーンな精度を高めることができることを示す。
論文 参考訳(メタデータ) (2025-01-15T19:12:59Z) - Protecting Privacy Through Approximating Optimal Parameters for Sequence Unlearning in Language Models [37.172662930947446]
言語モデル(LM)は、重大なプライバシーリスクを示す抽出攻撃に対して潜在的に脆弱である。
本稿では,事前学習したLMからターゲットトークンシーケンスを効果的に忘れる新しい未学習手法である,最適パラメータによるプライバシ保護(POP)を提案する。
POPは、9つの分類と4つのダイアログベンチマークにまたがって、保留後の顕著なパフォーマンスを示し、最先端を大きなマージンで上回っている。
論文 参考訳(メタデータ) (2024-06-20T08:12:49Z) - Adversarial Training is Not Ready for Robot Learning [55.493354071227174]
対人訓練は,ノルム有界摂動に耐性のあるディープラーニングモデルを訓練する有効な方法である。
敵訓練により得られたニューラルコントローラが3種類の欠陥を受けることを理論的および実験的に示す。
この結果から, ロボット学習にはまだ対応できていないことが示唆された。
論文 参考訳(メタデータ) (2021-03-15T07:51:31Z) - Self-Adaptive Training: Bridging the Supervised and Self-Supervised
Learning [16.765461276790944]
自己適応型トレーニングは、追加の計算コストを課すことなく、モデル予測によってトレーニングプロセスを動的にキャリブレーションし、強化する統一型トレーニングアルゴリズムです。
ランダムノイズや敵対的な例など、破損したトレーニングデータの深層ネットワークのトレーニングダイナミクスを分析します。
分析の結果, モデル予測はデータ中の有用な情報量を拡大することが可能であり, 強調ラベル情報がない場合にも広く発生することがわかった。
論文 参考訳(メタデータ) (2021-01-21T17:17:30Z) - Improving the affordability of robustness training for DNNs [11.971637253035107]
逆行訓練の初期段階は冗長であり、計算効率を大幅に向上させる自然な訓練に置き換えることができることを示す。
提案手法は, 各種敵攻撃の強みに対するモデルテスト精度と一般化により, 最大2.5倍の訓練時間を短縮できることを示す。
論文 参考訳(メタデータ) (2020-02-11T07:29:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。