論文の概要: Eliciting Least-to-Most Reasoning for Phishing URL Detection
- arxiv url: http://arxiv.org/abs/2601.20270v1
- Date: Wed, 28 Jan 2026 05:40:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-29 15:46:06.783444
- Title: Eliciting Least-to-Most Reasoning for Phishing URL Detection
- Title(参考訳): Phishing URL 検出のためのLast-to-Most Reasoning
- Authors: Holly Trikilis, Pasindu Marasinghe, Fariza Rashid, Suranga Seneviratne,
- Abstract要約: フィッシングURL検出のためのLast-to-Mostプロンプトフレームワークを提案する。
本稿では,Last-to-Mostの反復的アプローチによる推論の促進を導く「回答感度」機構を提案する。
このシンプルだが強力なプロンプト戦略は、ワンショットと教師ありの両方のアプローチより一貫して優れていることを示す。
- 参考スコア(独自算出の注目度): 0.7513055111258214
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Phishing continues to be one of the most prevalent attack vectors, making accurate classification of phishing URLs essential. Recently, large language models (LLMs) have demonstrated promising results in phishing URL detection. However, their reasoning capabilities that enabled such performance remain underexplored. To this end, in this paper, we propose a Least-to-Most prompting framework for phishing URL detection. In particular, we introduce an "answer sensitivity" mechanism that guides Least-to-Most's iterative approach to enhance reasoning and yield higher prediction accuracy. We evaluate our framework using three URL datasets and four state-of-the-art LLMs, comparing against a one-shot approach and a supervised model. We demonstrate that our framework outperforms the one-shot baseline while achieving performance comparable to that of the supervised model, despite requiring significantly less training data. Furthermore, our in-depth analysis highlights how the iterative reasoning enabled by Least-to-Most, and reinforced by our answer sensitivity mechanism, drives these performance gains. Overall, we show that this simple yet powerful prompting strategy consistently outperforms both one-shot and supervised approaches, despite requiring minimal training or few-shot guidance. Our experimental setup can be found in our Github repository github.sydney.edu.au/htri0928/least-to-most-phishing-detection.
- Abstract(参考訳): フィッシングは依然として最も一般的な攻撃ベクトルの1つであり、フィッシングURLの正確な分類が不可欠である。
近年,大規模な言語モデル (LLM) がフィッシングURLの検出において有望な結果を示している。
しかし、そのような性能を実現する彼らの推論能力はいまだに未解明のままである。
そこで本稿では,フィッシングURL検出のためのLast-to-Mostプロンプトフレームワークを提案する。
特に,Last-to-Mostの反復的アプローチを導く「回答感度」機構を導入し,推論を強化し,予測精度を向上する。
3つのURLデータセットと4つの最先端LCMを用いてフレームワークの評価を行い、ワンショットアプローチと教師付きモデルとの比較を行った。
トレーニングデータが少ないにもかかわらず、我々のフレームワークは教師付きモデルに匹敵する性能を保ちながら、単発ベースラインよりも優れています。
さらに,Last-to-Mostによる反復的推論が解答感度のメカニズムによって強化され,これらの性能向上がもたらされることを示す。
全体として、このシンプルで強力なプロンプト戦略は、最小限のトレーニングや少人数の指導を必要とするにも関わらず、ワンショットと教師付きアプローチの両方で一貫して優れています。
実験的なセットアップはGithubリポジトリgithub.sydney.edu.au/htri0928/least-to-most-phishing-detectionで確認できます。
関連論文リスト
- ReasAlign: Reasoning Enhanced Safety Alignment against Prompt Injection Attack [52.17935054046577]
本稿では、間接的インジェクション攻撃に対する安全性アライメントを改善するためのモデルレベルのソリューションであるReasAlignを提案する。
ReasAlignには、ユーザクエリの分析、競合する命令の検出、ユーザの意図したタスクの継続性を維持するための構造化された推論ステップが組み込まれている。
論文 参考訳(メタデータ) (2026-01-15T08:23:38Z) - Addressing Overthinking in Large Vision-Language Models via Gated Perception-Reasoning Optimization [56.59356959631999]
Gated Perception-Reasoning Optimization (GPRO) は3つの決定経路間で動的に計算をルーティングするメタ推論コントローラである。
GPROは精度と効率を大幅に改善し、最近のスロー思考法よりも優れている。
論文 参考訳(メタデータ) (2026-01-07T23:05:17Z) - From Harm to Help: Turning Reasoning In-Context Demos into Assets for Reasoning LMs [58.02809208460186]
デモとしてDeepSeek-R1の高品質なトレースを使って、このパラドックスを再検討する。
デモが最適であっても、より多くの例を加えることで、常に精度が低下することがわかった。
デモを明示的で再利用可能な洞察に変換するシーケンシャルなテストタイム手順であるInsight-to-solve(I2S)を紹介します。
論文 参考訳(メタデータ) (2025-09-27T08:59:31Z) - MirGuard: Towards a Robust Provenance-based Intrusion Detection System Against Graph Manipulation Attacks [13.92935628832727]
MirGuardは、ロジック対応のマルチビュー拡張とコントラスト表現学習を組み合わせた異常検出フレームワークである。
MirGuardは、さまざまなグラフ操作攻撃に対して、最先端の検出器の堅牢性を大幅に上回っている。
論文 参考訳(メタデータ) (2025-08-14T13:35:51Z) - Does More Inference-Time Compute Really Help Robustness? [50.47666612618054]
小規模なオープンソースモデルは、推論時間スケーリングの恩恵を受けることができることを示す。
我々は、逆スケーリング法として、直感的に動機付けられ、実証的に検証された重要なセキュリティリスクを特定します。
私たちは、セキュリティに敏感で現実世界のアプリケーションに推論タイムのスケーリングを適用する前に、実践者にこれらの微妙なトレードオフを慎重に検討するよう促します。
論文 参考訳(メタデータ) (2025-07-21T18:08:38Z) - One Token to Fool LLM-as-a-Judge [52.45386385722788]
大規模言語モデル(LLM)は、自動化された審査員としてますます信頼され、評価を支援し、他のモデルを訓練するための報酬信号を提供する。
生成的報酬モデルは、ハッキングに対して体系的に影響を受けやすい。
論文 参考訳(メタデータ) (2025-07-11T17:55:22Z) - A Gradient-Optimized TSK Fuzzy Framework for Explainable Phishing Detection [0.0]
既存のフィッシング検出手法は高い精度と説明可能性の両立に苦慮している。
勾配に基づく手法により最適化された1次高木・スゲノ・カンファジィ推論モデルに基づく新しいフィッシングURL検出システムを提案する。
論文 参考訳(メタデータ) (2025-04-25T18:31:05Z) - EXPLICATE: Enhancing Phishing Detection through Explainable AI and LLM-Powered Interpretability [44.2907457629342]
EXPLICATEは、三成分アーキテクチャによるフィッシング検出を強化するフレームワークである。
既存のディープラーニング技術と同等ですが、説明性が向上しています。
自動AIとフィッシング検出システムにおけるユーザ信頼の重大な隔たりに対処する。
論文 参考訳(メタデータ) (2025-03-22T23:37:35Z) - Efficient Phishing URL Detection Using Graph-based Machine Learning and Loopy Belief Propagation [12.89058029173131]
フィッシングURL検出のためのグラフベース機械学習モデルを提案する。
我々は、IPアドレスや権威名サーバのようなURL構造とネットワークレベルの機能を統合する。
実世界のデータセットの実験は、F1スコアを98.77%まで達成することで、我々のモデルの有効性を実証している。
論文 参考訳(メタデータ) (2025-01-12T19:49:00Z) - Evaluating the Effectiveness and Robustness of Visual Similarity-based Phishing Detection Models [10.334870703744498]
フィッシング攻撃は、犠牲者を欺くために合法的なウェブサイトの視覚的外観を精巧に再現する。
視覚的類似性に基づく検出システムは効果的な対策として現れてきたが、現実のシナリオにおけるその有効性と堅牢性は過小評価されている。
実世界のフィッシングWebサイトの大規模データセットを用いて、一般的な視覚的類似性に基づくフィッシングモデルの有効性とロバスト性を網羅的に検証し、評価した。
論文 参考訳(メタデータ) (2024-05-30T01:28:36Z) - Detection of Adversarial Supports in Few-shot Classifiers Using Feature
Preserving Autoencoders and Self-Similarity [89.26308254637702]
敵対的なサポートセットを強調するための検出戦略を提案する。
我々は,特徴保存型オートエンコーダフィルタリングと,この検出を行うサポートセットの自己相似性の概念を利用する。
提案手法は攻撃非依存であり, 最善の知識まで, 数発分類器の検出を探索する最初の方法である。
論文 参考訳(メタデータ) (2020-12-09T14:13:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。