論文の概要: Probabilistic Reasoning with LLMs for k-anonymity Estimation
- arxiv url: http://arxiv.org/abs/2503.09674v1
- Date: Wed, 12 Mar 2025 17:41:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-14 15:54:48.365645
- Title: Probabilistic Reasoning with LLMs for k-anonymity Estimation
- Title(参考訳): k-匿名性推定のためのLLMによる確率的推論
- Authors: Jonathan Zheng, Sauvik Das, Alan Ritter, Wei Xu,
- Abstract要約: 本稿では,プライバシーに敏感な情報を含むユーザ生成文書のk-匿名性を推定することに着目し,不確実性を考慮した新しい数値推論タスクを提案する。
そこで本研究では,LLMを用いた共同確率分布の分解とk-値の推定を行うBRANCHを提案する。
実験の結果, 正しいk値を67%の時間で推定し, GPT-4o連鎖理論と比較して11%増加した。
- 参考スコア(独自算出の注目度): 23.16673184539629
- License:
- Abstract: Probabilistic reasoning is a key aspect of both human and artificial intelligence that allows for handling uncertainty and ambiguity in decision-making. In this paper, we introduce a novel numerical reasoning task under uncertainty, focusing on estimating the k-anonymity of user-generated documents containing privacy-sensitive information. We propose BRANCH, which uses LLMs to factorize a joint probability distribution to estimate the k-value-the size of the population matching the given information-by modeling individual pieces of textual information as random variables. The probability of each factor occurring within a population is estimated using standalone LLMs or retrieval-augmented generation systems, and these probabilities are combined into a final k-value. Our experiments show that this method successfully estimates the correct k-value 67% of the time, an 11% increase compared to GPT-4o chain-of-thought reasoning. Additionally, we leverage LLM uncertainty to develop prediction intervals for k-anonymity, which include the correct value in nearly 92% of cases.
- Abstract(参考訳): 確率論的推論(probabilistic reasoning)は、人間と人工知能の両方の重要な側面であり、意思決定における不確実性と曖昧性を扱うことができる。
本稿では,プライバシーに敏感な情報を含むユーザ生成文書のk-匿名性を推定することに着目し,不確実性を考慮した新しい数値推論タスクを提案する。
我々は,LLMを用いて,与えられた情報と一致する集団のk-値の大きさをランダム変数としてモデル化して推定するBRANCHを提案する。
集団内で発生する各因子の確率は、独立LLMまたは検索拡張生成系を用いて推定し、これらの確率を最終k-値に結合する。
実験の結果, 正しいk値を67%の時間で推定し, GPT-4o連鎖理論と比較して11%増加した。
さらに、LLMの不確実性を利用して、k-匿名性の予測間隔を開発する。
関連論文リスト
- Uncertainty Decomposition and Error Margin Detection of Homodyned-K Distribution in Quantitative Ultrasound [1.912429179274357]
定量的超音波(QUS)における均質K分布(HK分布)パラメータ推定をベイズニューラルネットワーク(BNN)を用いて最近検討した。
BNNは、精度と精度を損なうことなく、スペックル統計に基づくQUSの計算時間を著しく短縮することが示されている。
論文 参考訳(メタデータ) (2024-09-17T22:16:49Z) - Probabilistic Medical Predictions of Large Language Models [4.825666689707888]
LLM(Large Language Models)は、プロンプトエンジニアリングによる臨床応用において有望であることを示す。
LLMは、透明性と意思決定に不可欠である信頼性の高い予測確率を生み出すのに苦労している。
テキスト生成からの明示的確率と、正しいラベルトークンを予測する可能性から得られた暗黙的確率を比較した。
論文 参考訳(メタデータ) (2024-08-21T03:47:17Z) - Uncertainty is Fragile: Manipulating Uncertainty in Large Language Models [79.76293901420146]
大規模言語モデル(LLM)は、出力の信頼性が不可欠である様々な高い領域で採用されている。
本研究では,不確実性推定の脆弱性を調査し,攻撃の可能性を探る。
攻撃者がLSMにバックドアを埋め込むことができ、入力中の特定のトリガーによって起動されると、最終的な出力に影響を与えることなくモデルの不確実性を操作できることを示す。
論文 参考訳(メタデータ) (2024-07-15T23:41:11Z) - Cycles of Thought: Measuring LLM Confidence through Stable Explanations [53.15438489398938]
大規模言語モデル(LLM)は、様々なベンチマークで人間レベルの精度に到達し、さらに超えることができるが、不正確な応答における過度な自信は、依然として十分に文書化された障害モードである。
本稿では,LLMの不確実性を測定するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-05T16:35:30Z) - BIRD: A Trustworthy Bayesian Inference Framework for Large Language Models [52.46248487458641]
予測モデルは、現実世界のタスクで不完全な情報を扱う必要があることが多い。
現在の大規模言語モデル(LLM)は、そのような正確な推定には不十分である。
本稿では,新しい確率的推論フレームワークBIRDを提案する。
論文 参考訳(メタデータ) (2024-04-18T20:17:23Z) - Decomposing Uncertainty for Large Language Models through Input Clarification Ensembling [69.83976050879318]
大規模言語モデル(LLM)では、不確実性の原因を特定することが、信頼性、信頼性、解釈可能性を改善するための重要なステップである。
本稿では,LLMのための不確実性分解フレームワークについて述べる。
提案手法は,入力に対する一連の明確化を生成し,それらをLLMに入力し,対応する予測をアンサンブルする。
論文 参考訳(メタデータ) (2023-11-15T05:58:35Z) - Quantification of Predictive Uncertainty via Inference-Time Sampling [57.749601811982096]
本稿では,データあいまいさの予測不確実性を推定するためのポストホックサンプリング手法を提案する。
この方法は与えられた入力に対して異なる可算出力を生成することができ、予測分布のパラメトリック形式を仮定しない。
論文 参考訳(メタデータ) (2023-08-03T12:43:21Z) - Uncertainty Quantification in Extreme Learning Machine: Analytical
Developments, Variance Estimates and Confidence Intervals [0.0]
不確かさの定量化は、機械学習モデルの予測品質を評価するために不可欠である。
文献で提案されるほとんどの手法は、データに対して強い仮定を行い、入力重みのランダム性を無視したり、信頼区間推定におけるバイアス寄与を無視したりする。
本稿では,これらの制約を克服し,EMMの多様性の理解を向上させる新しい推定法を提案する。
論文 参考訳(メタデータ) (2020-11-03T13:45:59Z) - Orthogonal Statistical Learning [49.55515683387805]
人口リスクが未知のニュアンスパラメータに依存するような環境では,統計学習における非漸近的過剰リスク保証を提供する。
人口リスクがNeymanityと呼ばれる条件を満たす場合,メタアルゴリズムによって達成される過剰リスクに対するニュアンス推定誤差の影響は2次であることを示す。
論文 参考訳(メタデータ) (2019-01-25T02:21:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。