論文の概要: Detecting Malicious Entra OAuth Apps with LLM-Based Permission Risk Scoring
- arxiv url: http://arxiv.org/abs/2512.15781v1
- Date: Sun, 14 Dec 2025 23:05:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-19 18:10:31.701954
- Title: Detecting Malicious Entra OAuth Apps with LLM-Based Permission Risk Scoring
- Title(参考訳): LLMに基づくパーミッションリスクスコアリングによる不正なOAuthアプリの検出
- Authors: Ashim Mahara,
- Abstract要約: このプロジェクトでは、Microsoft Graphパーミッションの完全なコーパスを構築し、一貫したLCMベースのリスクスコアを生成し、それらをリアルタイム検出エンジンに統合し、悪意のあるOAuth同意アクティビティを識別する統合検出フレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This project presents a unified detection framework that constructs a complete corpus of Microsoft Graph permissions, generates consistent LLM-based risk scores, and integrates them into a real-time detection engine to identify malicious OAuth consent activity.
- Abstract(参考訳): このプロジェクトでは、Microsoft Graphパーミッションの完全なコーパスを構築し、一貫したLCMベースのリスクスコアを生成し、それらをリアルタイム検出エンジンに統合し、悪意のあるOAuth同意アクティビティを識別する統合検出フレームワークを提案する。
関連論文リスト
- AttestLLM: Efficient Attestation Framework for Billion-scale On-device LLMs [19.00344718051438]
本稿では,デバイスベンダのハードウェアレベルの知的財産権(IP)を保護するための,最初のテストフレームワークであるAttestLLMを紹介する。
AttestLLMはモデルの正当性を強制し,モデル偽造や攻撃に対するレジリエンスを示す。
論文 参考訳(メタデータ) (2025-09-08T04:17:02Z) - Encrypted Prompt: Securing LLM Applications Against Unauthorized Actions [2.1756081703276]
プロンプトインジェクション攻撃のようなセキュリティ脅威は、大規模言語モデルを統合するアプリケーションに重大なリスクをもたらす。
本稿では、各ユーザプロンプトに暗号化プロンプトを付加し、現在のパーミッションを埋め込む新しい手法を提案する。
論文 参考訳(メタデータ) (2025-03-29T23:26:57Z) - Towards Copyright Protection for Knowledge Bases of Retrieval-augmented Language Models via Reasoning [58.57194301645823]
大規模言語モデル(LLM)は、現実のパーソナライズされたアプリケーションにますます統合されている。
RAGで使用される知識基盤の貴重かつしばしばプロプライエタリな性質は、敵による不正使用のリスクをもたらす。
これらの知識基盤を保護するための透かし技術として一般化できる既存の方法は、一般的に毒やバックドア攻撃を含む。
我々は、無害な」知識基盤の著作権保護の名称を提案する。
論文 参考訳(メタデータ) (2025-02-10T09:15:56Z) - Exploring Automatic Cryptographic API Misuse Detection in the Era of LLMs [60.32717556756674]
本稿では,暗号誤用の検出において,大規模言語モデルを評価するための体系的評価フレームワークを提案する。
11,940個のLCM生成レポートを詳細に分析したところ、LSMに固有の不安定性は、報告の半数以上が偽陽性になる可能性があることがわかった。
最適化されたアプローチは、従来の手法を超え、確立されたベンチマークでこれまで知られていなかった誤用を明らかにすることで、90%近い顕著な検出率を達成する。
論文 参考訳(メタデータ) (2024-07-23T15:31:26Z) - MarkLLM: An Open-Source Toolkit for LLM Watermarking [80.00466284110269]
MarkLLMは、LLMウォーターマーキングアルゴリズムを実装するためのオープンソースのツールキットである。
評価のために、MarkLLMは3つの視点にまたがる12のツールと、2種類の自動評価パイプラインを提供する。
論文 参考訳(メタデータ) (2024-05-16T12:40:01Z) - Identifying and Mitigating Vulnerabilities in LLM-Integrated
Applications [37.316238236750415]
LLM統合アプリケーションのバックエンドとして,大規模言語モデル(LLM)がますます多くデプロイされている。
本研究では,ユーザとLLMがLLM統合アプリケーションを介して,中間で対話する環境について考察する。
悪意のあるアプリケーション開発者や外部からの脅威から生じる可能性のある潜在的な脆弱性を特定します。
我々は、内部の脅威と外部の脅威の両方を緩和する軽量で脅威に依存しない防御を開発する。
論文 参考訳(メタデータ) (2023-11-07T20:13:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。