論文の概要: Hybrid Privacy Policy-Code Consistency Check using Knowledge Graphs and LLMs
- arxiv url: http://arxiv.org/abs/2505.11502v1
- Date: Mon, 28 Apr 2025 07:23:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-01 08:38:37.886258
- Title: Hybrid Privacy Policy-Code Consistency Check using Knowledge Graphs and LLMs
- Title(参考訳): 知識グラフとLLMを用いたハイブリッドプライバシポリシ-コード一貫性チェック
- Authors: Zhenyu Mao, Xinxin Fan, Yifei Wang, Jacky Keung, Jialong Li,
- Abstract要約: 本稿では,知識グラフに基づく決定性チェックを統合して高い精度を確保するハイブリッド手法と,計算コストを抑えるために予備的意味解析にのみ使用される大規模言語モデルを提案する。
予備評価では、このハイブリッドアプローチは37.63%の精度向上、23.13%のF1スコア増加、93.5%のトークンの消費、87.3%の短縮を実現している。
- 参考スコア(独自算出の注目度): 12.416847314845612
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The increasing concern in user privacy misuse has accelerated research into checking consistencies between smartphone apps' declared privacy policies and their actual behaviors. Recent advances in Large Language Models (LLMs) have introduced promising techniques for semantic comparison, but these methods often suffer from low accuracies and expensive computational costs. To address this problem, this paper proposes a novel hybrid approach that integrates 1) knowledge graph-based deterministic checking to ensure higher accuracy, and 2) LLMs exclusively used for preliminary semantic analysis to save computational costs. Preliminary evaluation indicates this hybrid approach not only achieves 37.63% increase in precision and 23.13% increase F1-score but also consumes 93.5% less tokens and 87.3% shorter time.
- Abstract(参考訳): ユーザプライバシの不正使用に対する懸念が高まり、スマートフォンアプリの宣言されたプライバシポリシと実際の動作の関連性を確認する研究が加速した。
近年のLarge Language Models (LLM) の進歩はセマンティック比較に有望な手法を導入しているが、これらの手法は低い精度と高価な計算コストに悩まされることが多い。
この問題に対処するために,本論文は統合された新しいハイブリッドアプローチを提案する。
1知識グラフに基づく高精度な決定性検査、及び
2) LLMは, 計算コストを抑えるために, 予備的意味解析にのみ使用される。
予備評価は、このハイブリッドアプローチが37.63%の精度向上と23.13%のF1スコア向上を達成するだけでなく、93.5%のトークンと87.3%の短い時間を消費していることを示している。
関連論文リスト
- CoCoTen: Detecting Adversarial Inputs to Large Language Models through Latent Space Features of Contextual Co-occurrence Tensors [3.7478782183628634]
本稿では,コンテキスト共起行列を用いた検出問題について検討する。
本論文では,コンテキスト共起行列の潜在空間特性を利用した新しい手法を提案する。
評価の結果,ラベル付きプロンプトの0.5%しか使用せず,F1スコアの0.83を達成できた。
論文 参考訳(メタデータ) (2025-08-05T01:53:32Z) - Conformal Prediction for Privacy-Preserving Machine Learning [83.88591755871734]
AESで暗号化されたMNISTデータセットの変種を用いて、暗号化されたドメインに直接適用しても、コンフォーマル予測法が有効であることを示す。
我々の研究は、安全でプライバシーに配慮した学習システムにおける原則的不確実性定量化の基礎を定めている。
論文 参考訳(メタデータ) (2025-07-13T15:29:14Z) - Linear-Time User-Level DP-SCO via Robust Statistics [55.350093142673316]
ユーザレベルの差分プライベート凸最適化(DP-SCO)は、マシンラーニングアプリケーションにおけるユーザのプライバシ保護の重要性から、大きな注目を集めている。
微分プライベート勾配勾配(DP-SGD)に基づくような現在の手法は、しばしば高雑音蓄積と準最適利用に苦しむ。
これらの課題を克服するために、ロバストな統計、特に中央値とトリミング平均を利用する新しい線形時間アルゴリズムを導入する。
論文 参考訳(メタデータ) (2025-02-13T02:05:45Z) - Inference Scaling vs Reasoning: An Empirical Analysis of Compute-Optimal LLM Problem-Solving [0.0]
大規模言語モデル(LLM)の最近の進歩は、精度と推論能力の最大化に重点を置いている。
本稿では,2つの対照的なアプローチの統合を解析することにより,推論の強化と計算効率の相乗効果について検討する。
論文 参考訳(メタデータ) (2024-12-20T08:42:45Z) - AutoElicit: Using Large Language Models for Expert Prior Elicitation in Predictive Modelling [53.54623137152208]
我々はAutoElicitを導入し、大規模言語モデルから知識を抽出し、予測モデルのための事前構築を行う。
これらの先行情報は情報的であり、自然言語を用いて洗練できることを示す。
AutoElicitは、非形式的な事前よりもエラーを大幅に減らし、ラベルを減らし、コンテクスト内学習を一貫して上回ります。
論文 参考訳(メタデータ) (2024-11-26T10:13:39Z) - HERL: Tiered Federated Learning with Adaptive Homomorphic Encryption using Reinforcement Learning [12.628921853388862]
HERLは強化学習に基づくアプローチで、Q-Learningを使って動的に暗号化パラメータを最適化する。
提案手法は,選択したクラスタリングアプローチに従って,クライアントのファーストプロファイリングと階層化を行う。
その結果,HERLは実用性17%向上し,収束時間を最大24%削減し,効率を最大30%向上し,セキュリティ損失を最小限に抑えることができた。
論文 参考訳(メタデータ) (2024-09-11T21:26:23Z) - ConU: Conformal Uncertainty in Large Language Models with Correctness Coverage Guarantees [68.33498595506941]
自己整合性理論に基づく新しい不確実性尺度を導入する。
次に,CPアルゴリズムに正当性に整合した不確かさ条件を組み込むことにより,適合性不確かさの基準を策定する。
実証的な評価は、我々の不確実性測定が過去の最先端手法よりも優れていることを示している。
論文 参考訳(メタデータ) (2024-06-29T17:33:07Z) - Improved Generation of Adversarial Examples Against Safety-aligned LLMs [72.38072942860309]
勾配に基づく手法を用いて生成した敵対的プロンプトは、安全対応のLDMに対して自動ジェイルブレイク攻撃を行う際、優れた性能を示す。
本稿では,この問題に対する新たな視点を探求し,トランスファーベースの攻撃にインスパイアされたイノベーションを活用することで緩和できることを示唆する。
この組み合わせによって生成されたクエリ固有逆接接尾辞の87%がLlama-2-7B-Chatを誘導し、AdvBench上のターゲット文字列と正確に一致する出力を生成することを示した。
論文 参考訳(メタデータ) (2024-05-28T06:10:12Z) - Perfectly Secure Steganography Using Minimum Entropy Coupling [60.154855689780796]
カチン1998のステガノグラフィー情報理論モデルでは, ステガノグラフィーの術式は完全に安全であることが示されている。
また, 完全セキュアな手順の中で, 最小エントロピー結合によって誘導される場合に限, 情報スループットが最大になることを示す。
論文 参考訳(メタデータ) (2022-10-24T17:40:07Z) - No Free Lunch in "Privacy for Free: How does Dataset Condensation Help
Privacy" [75.98836424725437]
データプライバシを保護するために設計された新しい手法は、慎重に精査する必要がある。
プライバシ保護の失敗は検出し難いが,プライバシ保護法を実装したシステムが攻撃された場合,破滅的な結果につながる可能性がある。
論文 参考訳(メタデータ) (2022-09-29T17:50:23Z) - Median regression with differential privacy [11.440028296972734]
第1のアルゴリズムは有限な滑らか化法に基づいており、第2のアルゴリズムは反復的な方法を提供し、最後のアルゴリズムはさらにグリーディ座標降下法を用いる。
これらのアルゴリズムの精度境界や収束特性も提供される。
論文 参考訳(メタデータ) (2020-06-04T16:14:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。