論文の概要: How Good LLM-Generated Password Policies Are?
- arxiv url: http://arxiv.org/abs/2506.08320v1
- Date: Tue, 10 Jun 2025 01:12:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-11 15:11:40.96398
- Title: How Good LLM-Generated Password Policies Are?
- Title(参考訳): LLMで作られたパスワードポリシーはどんなものか?
- Authors: Vivek Vaidya, Aditya Patwardhan, Ashish Kundu,
- Abstract要約: サイバーセキュリティアクセス制御システムにおける大規模言語モデルの応用について検討する。
具体的には、LLM生成したパスワードポリシーの一貫性と正確性を調べ、自然言語のプロンプトをpwquality.conf設定ファイルに翻訳する。
本研究は,LLM の現世代における重要な課題を浮き彫りにして,アクセス制御システムにおける LLM の展開に関する貴重な知見を提供するものである。
- 参考スコア(独自算出の注目度): 0.1747820331822631
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative AI technologies, particularly Large Language Models (LLMs), are rapidly being adopted across industry, academia, and government sectors, owing to their remarkable capabilities in natural language processing. However, despite their strengths, the inconsistency and unpredictability of LLM outputs present substantial challenges, especially in security-critical domains such as access control. One critical issue that emerges prominently is the consistency of LLM-generated responses, which is paramount for ensuring secure and reliable operations. In this paper, we study the application of LLMs within the context of Cybersecurity Access Control Systems. Specifically, we investigate the consistency and accuracy of LLM-generated password policies, translating natural language prompts into executable pwquality.conf configuration files. Our experimental methodology adopts two distinct approaches: firstly, we utilize pre-trained LLMs to generate configuration files purely from natural language prompts without additional guidance. Secondly, we provide these models with official pwquality.conf documentation to serve as an informative baseline. We systematically assess the soundness, accuracy, and consistency of these AI-generated configurations. Our findings underscore significant challenges in the current generation of LLMs and contribute valuable insights into refining the deployment of LLMs in Access Control Systems.
- Abstract(参考訳): 生成AI技術、特にLarge Language Models(LLMs)は、自然言語処理における顕著な能力のため、産業、アカデミア、政府セクターで急速に採用されている。
しかしながら、LLM出力の不整合性と予測不可能性は、その強みにもかかわらず、特にアクセス制御のようなセキュリティクリティカルな領域において、重大な課題を呈している。
LLMが生成する応答の一貫性は、安全で信頼性の高い操作を確実にするための最重要課題である。
本稿では,サイバーセキュリティアクセス制御システムにおけるLCMの適用について検討する。
具体的には、LLM生成したパスワードポリシーの一貫性と正確性を調べ、自然言語のプロンプトをpwquality.conf設定ファイルに翻訳する。
実験手法は2つの異なるアプローチを採用する: まず、事前訓練されたLCMを用いて、追加のガイダンスなしで、自然言語プロンプトから純粋に構成ファイルを生成する。
第2に、これらのモデルに公式のpwquality.confドキュメントを提供し、インフォメーションベースラインとして機能します。
我々は、これらのAI生成構成の音質、精度、一貫性を体系的に評価する。
本研究は,LLM の現世代における重要な課題を浮き彫りにして,アクセス制御システムにおける LLM の展開に関する貴重な知見を提供するものである。
関連論文リスト
- LLM4VV: Evaluating Cutting-Edge LLMs for Generation and Evaluation of Directive-Based Parallel Programming Model Compiler Tests [7.6818904666624395]
本稿では,コンパイラテストの生成にLLMを用いたデュアルLLMシステムと実験について述べる。
LLMは、品質の高いコンパイラテストを生成し、それらを自動的に検証する有望な可能性を持っていることは明らかである。
論文 参考訳(メタデータ) (2025-07-29T02:34:28Z) - Textual Bayes: Quantifying Uncertainty in LLM-Based Systems [16.449972045324916]
大規模言語モデル(LLM)は、現実世界の課題を解決する能力がますます高まっている。
不確実性を正確に定量化することは 重要な問題です
この課題は、多くの最先端のLCMのクローズドソース、ブラックボックスの性質によって複雑化されている。
論文 参考訳(メタデータ) (2025-06-11T18:00:00Z) - Self-Correction Makes LLMs Better Parsers [19.20952673157709]
大規模言語モデル(LLM)は、様々な自然言語処理(NLP)タスクで顕著な成功を収めている。
近年の研究では、深い言語理解に不可欠な基本的なNLPタスクを実行する上で、依然として課題に直面していることが示唆されている。
本稿では,既存の木バンクからの文法規則を活かした自己補正手法を提案する。
論文 参考訳(メタデータ) (2025-04-19T03:50:59Z) - RuAG: Learned-rule-augmented Generation for Large Language Models [62.64389390179651]
本稿では,大量のオフラインデータを解釈可能な一階述語論理規則に自動抽出する新しいフレームワーク,RuAGを提案する。
我々は,自然言語処理,時系列,意思決定,産業タスクなど,公共および民間の産業タスクに関する枠組みを評価する。
論文 参考訳(メタデータ) (2024-11-04T00:01:34Z) - Beyond Binary: Towards Fine-Grained LLM-Generated Text Detection via Role Recognition and Involvement Measurement [51.601916604301685]
大規模言語モデル(LLM)は、オンライン談話における信頼を損なう可能性のあるコンテンツを生成する。
現在の手法はバイナリ分類に重点を置いており、人間とLLMのコラボレーションのような現実のシナリオの複雑さに対処できないことが多い。
バイナリ分類を超えてこれらの課題に対処するために,LLM生成コンテンツを検出するための新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2024-10-18T08:14:10Z) - System-Level Defense against Indirect Prompt Injection Attacks: An Information Flow Control Perspective [24.583984374370342]
LLMシステム(Large Language Model-based System)は、情報処理およびクエリ処理システムである。
本稿では,情報フロー制御の原理に基づくシステムレベルの防衛システムについて述べる。
論文 参考訳(メタデータ) (2024-09-27T18:41:58Z) - If LLM Is the Wizard, Then Code Is the Wand: A Survey on How Code
Empowers Large Language Models to Serve as Intelligent Agents [81.60906807941188]
大型言語モデル(LLM)は、自然言語と形式言語(コード)の組み合わせに基づいて訓練される
コードは、標準構文、論理一貫性、抽象化、モジュール性を備えた高レベルの目標を実行可能なステップに変換する。
論文 参考訳(メタデータ) (2024-01-01T16:51:20Z) - Assessing the Reliability of Large Language Model Knowledge [78.38870272050106]
大規模言語モデル(LLM)は、知識探索タスクにおける高い性能のため、知識ベースとして扱われてきた。
LLMが実際に正しい答えを連続的に生成する能力をどのように評価するか。
LLMの信頼性を直接測定するための新しい指標であるMOdel kNowledge relIabiliTy score (MONITOR)を提案する。
論文 参考訳(メタデータ) (2023-10-15T12:40:30Z) - Survey on Factuality in Large Language Models: Knowledge, Retrieval and
Domain-Specificity [61.54815512469125]
本調査は,大規模言語モデル(LLM)における事実性の重要課題に対処する。
LLMが様々な領域にまたがる応用を見出すにつれ、その出力の信頼性と正確性は重要となる。
論文 参考訳(メタデータ) (2023-10-11T14:18:03Z) - Red Teaming Language Model Detectors with Language Models [114.36392560711022]
大規模言語モデル(LLM)は、悪意のあるユーザによって悪用された場合、重大な安全性と倫理的リスクをもたらす。
近年,LLM生成テキストを検出し,LLMを保護するアルゴリズムが提案されている。
1) LLMの出力中の特定の単語を, 文脈が与えられたシノニムに置き換えること, 2) 生成者の書き方を変更するための指示プロンプトを自動で検索すること,である。
論文 参考訳(メタデータ) (2023-05-31T10:08:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。