論文の概要: Say What You Mean: Natural Language Access Control with Large Language Models for Internet of Things
- arxiv url: http://arxiv.org/abs/2505.23835v1
- Date: Wed, 28 May 2025 10:59:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-02 19:47:52.551954
- Title: Say What You Mean: Natural Language Access Control with Large Language Models for Internet of Things
- Title(参考訳): 言うなれば、モノのインターネットのための大規模言語モデルによる自然言語アクセス制御
- Authors: Ye Cheng, Minghui Xu, Yue Zhang, Kun Li, Hao Wu, Yechao Zhang, Shaoyong Guo, Wangjie Qiu, Dongxiao Yu, Xiuzhen Cheng,
- Abstract要約: 人間の意図と機械の強化可能な論理のギャップを埋めるフレームワークである LACE を提示する。
プロンプト誘導されたポリシー生成、検索強化された推論、フォーマルなバリデーションを組み合わせることで、表現的、解釈可能、検証可能なアクセス制御をサポートする。
LACEは、検証済みのポリシー生成において100%の正当性を達成し、最大88%の判定精度と0.79 F1スコアを達成する。
- 参考スコア(独自算出の注目度): 29.816322400339228
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Access control in the Internet of Things (IoT) is becoming increasingly complex, as policies must account for dynamic and contextual factors such as time, location, user behavior, and environmental conditions. However, existing platforms either offer only coarse-grained controls or rely on rigid rule matching, making them ill-suited for semantically rich or ambiguous access scenarios. Moreover, the policy authoring process remains fragmented: domain experts describe requirements in natural language, but developers must manually translate them into code, introducing semantic gaps and potential misconfiguration. In this work, we present LACE, the Language-based Access Control Engine, a hybrid framework that leverages large language models (LLMs) to bridge the gap between human intent and machine-enforceable logic. LACE combines prompt-guided policy generation, retrieval-augmented reasoning, and formal validation to support expressive, interpretable, and verifiable access control. It enables users to specify policies in natural language, automatically translates them into structured rules, validates semantic correctness, and makes access decisions using a hybrid LLM-rule-based engine. We evaluate LACE in smart home environments through extensive experiments. LACE achieves 100% correctness in verified policy generation and up to 88% decision accuracy with 0.79 F1-score using DeepSeek-V3, outperforming baselines such as GPT-3.5 and Gemini. The system also demonstrates strong scalability under increasing policy volume and request concurrency. Our results highlight LACE's potential to enable secure, flexible, and user-friendly access control across real-world IoT platforms.
- Abstract(参考訳): IoT(Internet of Things)におけるアクセス制御は,時間や場所,ユーザ行動,環境条件といった動的かつコンテキスト的な要因をポリシが考慮しなければならないため,ますます複雑化している。
しかし、既存のプラットフォームは粗い粒度のコントロールしか提供していないか、厳密なルールマッチングに依存しているため、セマンティックにリッチであいまいなアクセスシナリオには適していない。
ドメインの専門家は自然言語の要件を記述しているが、開発者はそれらを手作業でコードに変換し、セマンティックなギャップと潜在的な設定ミスを導入しなければならない。
本稿では,Language-based Access Control Engineについて紹介する。Language-based Access Control Engineは,Language-based Access Control Engineで,Language Model(LLM)を利用して人間の意図と機械で強化可能なロジックのギャップを埋める。
LACEは、プロンプト誘導されたポリシー生成、検索強化された推論、フォーマルなバリデーションを組み合わせて、表現的で解釈可能で検証可能なアクセス制御をサポートする。
ユーザは自然言語でポリシーを指定でき、構造化されたルールに自動的に翻訳し、意味的正当性を検証し、ハイブリッドLLMルールベースのエンジンを使用してアクセス決定を行うことができる。
スマートホーム環境におけるLACEの評価は,広範囲な実験を通じて行う。
LACEは、認証されたポリシー生成において100%の正確さを達成し、決定精度は最大88%、DeepSeek-V3を使用して0.79 F1スコアに達し、GPT-3.5やGeminiなどのベースラインよりも優れている。
このシステムは、ポリシーのボリュームと要求の並行性の増加の下で、強力なスケーラビリティを示す。
我々の結果は、現実のIoTプラットフォーム間でセキュアでフレキシブルでユーザフレンドリなアクセス制御を可能にするLACEの可能性を強調しています。
関連論文リスト
- Synthesizing Access Control Policies using Large Language Models [0.5762345156477738]
クラウドコンピューティングシステムでは、管理者はプライベートデータへのアクセスを管理するアクセス制御ポリシーを書くことができる。
ポリシはAWS IdentityやAccess Management Policy Languageといった便利な言語で記述されているが、手書きのポリシは複雑でエラーが多いことが多い。
本稿では,Large Language Models (LLM) がアクセス制御ポリシの合成にどの程度有効かを検討する。
論文 参考訳(メタデータ) (2025-03-14T16:40:25Z) - Synthesizing Interpretable Control Policies through Large Language Model Guided Search [7.706225175516503]
Pythonのような標準言語のプログラムとしてコントロールポリシを表現しています。
シミュレーションで候補コントローラを評価し,事前学習したLLMを用いてそれらを進化させる。
本手法は,カップタスクにおける振り子の振り上げとボールの解釈可能な制御ポリシの合成への応用を通して述べる。
論文 参考訳(メタデータ) (2024-10-07T18:12:20Z) - From LLMs to Actions: Latent Codes as Bridges in Hierarchical Robot Control [58.72492647570062]
我々は,制限を克服する代替アーキテクチャとして,Learningable Latent Codes as Bridges (LCB)を導入した。
methodoutperforms baselines that leverage pure language as the interface layer on tasks that requires reasoning and multi-step behaviors。
論文 参考訳(メタデータ) (2024-05-08T04:14:06Z) - DECIDER: A Dual-System Rule-Controllable Decoding Framework for Language Generation [57.07295906718989]
制約付き復号法は,事前訓練された大言語(Ms と PLMs)が生成するテキストの意味やスタイルを,推論時に様々なタスクに対して制御することを目的としている。
これらの方法は、しばしば、欲求的かつ明示的にターゲットを選択することによって、もっともらしい連続を導く。
認知二重プロセス理論に着想を得て,新しい復号化フレームワークDECDERを提案する。
論文 参考訳(メタデータ) (2024-03-04T11:49:08Z) - Drive Anywhere: Generalizable End-to-end Autonomous Driving with
Multi-modal Foundation Models [114.69732301904419]
本稿では、画像とテキストで検索可能な表現から、運転決定を提供することができる、エンドツーエンドのオープンセット(環境/シーン)自律運転を適用するアプローチを提案する。
当社のアプローチでは, 多様なテストにおいて非並列的な結果を示すと同時に, アウト・オブ・ディストリビューションの状況において, はるかに高いロバスト性を実現している。
論文 参考訳(メタデータ) (2023-10-26T17:56:35Z) - Language Agent Tree Search Unifies Reasoning Acting and Planning in Language Models [31.509994889286183]
我々はLanguage Agent Tree Search (LATS)を紹介した。Language Agent Tree Search (LATS)は、推論、行動、計画において言語モデル(LM)の能力を相乗化する最初の一般的なフレームワークである。
当社のアプローチの重要な特徴は、より意図的で適応的な問題解決メカニズムを提供する外部フィードバック環境の導入である。
LATSは、GPT-4でHumanEval上でプログラミングするための最先端パス@1精度(92.7%)を達成し、GPTによるWebShop上のWebナビゲーションの勾配ベースの微調整に匹敵する勾配なし性能(平均スコア75.9)を示す。
論文 参考訳(メタデータ) (2023-10-06T17:55:11Z) - AmadeusGPT: a natural language interface for interactive animal
behavioral analysis [65.55906175884748]
動作の自然言語記述をマシン実行可能なコードに変換する自然言語インタフェースであるAmadeusGPTを紹介する。
MABE 2022の動作課題タスクで最先端のパフォーマンスを実現できることを示す。
アマデウスGPTは、深い生物学的知識、大規模言語モデル、そしてコアコンピュータビジョンモジュールをより自然に知的なシステムに統合する新しい方法を提示している。
論文 参考訳(メタデータ) (2023-07-10T19:15:17Z) - PADL: Language-Directed Physics-Based Character Control [66.517142635815]
本稿では,文字が行うべきハイレベルなタスクと低レベルなスキルを指定するために,ユーザが自然言語コマンドを発行できるようにするPADLを提案する。
我々は,シミュレーションされたヒューマノイドキャラクタを効果的に誘導し,多種多様な複雑な運動能力を実現するために,本フレームワークを適用した。
論文 参考訳(メタデータ) (2023-01-31T18:59:22Z) - Natural Language Specification of Reinforcement Learning Policies
through Differentiable Decision Trees [10.406631494442683]
人間-AIポリシー仕様は、人間がロボットの強化学習ポリシーを協調的に温めるための、我々が定義した新しい手順である。
我々は,自律エージェントの行動の初期化と解釈を可能にする,新しい協調フレームワークを開発した。
提案手法は,ドメイン探索コストを増大させることなく,未経験の自然言語仕様を利用することで,RLエージェントをウォームスタートさせる。
論文 参考訳(メタデータ) (2021-01-18T16:07:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。