論文の概要: Converse Bounds for Sun-Jafar-type Weak Private Information Retrieval
- arxiv url: http://arxiv.org/abs/2601.10643v1
- Date: Thu, 15 Jan 2026 18:03:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-16 19:43:19.254611
- Title: Converse Bounds for Sun-Jafar-type Weak Private Information Retrieval
- Title(参考訳): Sun-Jafar型弱私的情報検索のための逆境界
- Authors: Chandan Anand, Jayesh Seshadri, Prasad Krishnan, Gowtham R. Kurri,
- Abstract要約: 本研究では,Sun-Jafar型スキームに対して報告された明示的なレートプライバシトレードオフが,非凝固・複製条件に最適であることを示す。
また,Banawan-Ulukus-type MDS-WPIRとSun-Jafar-type $T$-colluding WPIRのクラスワイド最適性を証明した。
- 参考スコア(独自算出の注目度): 6.065022078229652
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Building on the well-established capacity-achieving schemes of Sun-Jafar (for replicated storage) and the closely related scheme of Banawan-Ulukus (for MDS-coded setting), a recent work by Chandan et al. proposed new classes of weak private information retrieval (WPIR) schemes for the collusion-free (replication and MDS-coded) setting, as well as for the $T$-colluding scenario. In their work, Chandan et al. characterized the expressions for the rate-privacy trade-offs for these classes of WPIR schemes, under the mutual information leakage and maximal leakage metrics. Explicit achievable trade-offs for the same were also presented, which were shown to be competitive or better than prior WPIR schemes. However, the class-wise optimality of the reported trade-offs were unknown. In this work, we show that the explicit rate-privacy trade-offs reported for the Sun-Jafar-type schemes by Chandan et al. are optimal for the non-colluding and replicated setting. Furthermore, we prove the class-wise optimality for Banawan-Ulukus-type MDS-WPIR and Sun-Jafar-type $T$-colluding WPIR schemes, under threshold-constraints on the system parameters. When these threshold-constraints do not hold, we present counter-examples which show that even higher rates than those reported before can be achieved.
- Abstract(参考訳): Sun-Jafar(複製された記憶のための)とBanawan-Ulukus(MDS符号化された設定のための)のよく確立された容量達成スキームに基づいて、Chandanらによる最近の研究は、コラシオンフリー(複製とMDS符号化)設定のための弱いプライベート情報検索(WPIR)スキームの新しいクラスと、$T$-colludingシナリオを提案した。
チャンダンらは、これらのWPIRスキームのレートプライバシトレードオフの表現を、相互情報漏洩と最大リークメトリクスの下で特徴付けている。
同様に達成可能なトレードオフも提示され、以前のWPIR方式よりも競争力があるか、あるいは優れていることが示されている。
しかし、報告されたトレードオフのクラスワイド最適性は分かっていなかった。
本研究では,チャンダンらによるSun-Jafar型スキームに対する明示的なレートプライバシトレードオフが,非凝固・複製条件に最適であることを示す。
さらに,Banawan-Ulukus-type MDS-WPIRとSun-Jafar-type $T$-colluding WPIRのクラスワイド最適性を,システムパラメータのしきい値制約の下で証明する。
これらのしきい値制約が保たない場合、我々は、以前報告した値よりも高いレートが達成可能であることを示す反例を示す。
関連論文リスト
- Fairness Aware Reward Optimization [78.85867531002346]
本稿では,Fairness Aware Reward Optimization (Faro)を紹介した。Fairness Aware Reward Optimization (Faro)は,階層的平等,等化オッズ,あるいは反実的フェアネス制約の下で報酬モデルを訓練するプロセス内フレームワークである。
LLMアライメントにおける報酬レベルの公平性に関する最初の理論的解析を行った。
Faroはモデルの品質を維持したり改善したりしながら、バイアスや有害な世代を著しく削減します。
論文 参考訳(メタデータ) (2026-02-08T03:35:49Z) - Information-Theoretic Reward Modeling for Stable RLHF: Detecting and Mitigating Reward Hacking [78.69179041551014]
本稿では,インフォメーション・ボトルネックの原理に基づく情報理論報酬モデリングフレームワークを提案する。
InfoRMは、報酬の一般化を緩和するために、嗜好に無関係な情報をフィルタリングする。
IBLは分散レベルの正規化であり、そのような偏差を罰し、最適化の展望を効果的に拡張する。
論文 参考訳(メタデータ) (2025-10-15T15:51:59Z) - Primal-Dual Direct Preference Optimization for Constrained LLM Alignment [16.080857375857697]
大規模言語モデル(LLM)における制約付きアライメントの問題について検討する。
そこで本研究では,報酬選好データに標準DPOを用いてモデルをトレーニングする,新しい原始双対DPO手法を提案する。
我々は,生産政策の最適度及び制約違反に関する厳密な理論的保証を確立する。
論文 参考訳(メタデータ) (2025-10-07T09:10:35Z) - Supervised Optimism Correction: Be Confident When LLMs Are Sure [91.7459076316849]
教師付き微調整とオフライン強化学習の間には,新たな理論的関係が確立されている。
広く使われているビームサーチ法は、許容できない過度な最適化に悩まされていることを示す。
本稿では,トークンレベル$Q$-value推定のための簡易かつ効果的な補助的損失を導入したSupervised Optimism Correctionを提案する。
論文 参考訳(メタデータ) (2025-04-10T07:50:03Z) - LLMEmb: Large Language Model Can Be a Good Embedding Generator for Sequential Recommendation [57.49045064294086]
大きな言語モデル(LLM)は、その人気とは無関係に、アイテム間の意味的関係をキャプチャする能力を持つ。
LLMEmb(LLMEmb)は、LCMを利用してアイテム埋め込みを生成し、逐次レコメンダシステム(SRS)の性能を向上させる手法である。
論文 参考訳(メタデータ) (2024-09-30T03:59:06Z) - Robust Preference Optimization through Reward Model Distillation [68.65844394615702]
Direct Preference Optimization (DPO) は、プライオリティデータに基づいてポリシーを直接訓練する一般的なオフラインアライメント手法である。
我々はこの現象を分析し、蒸留を用いて生成対よりも真の嗜好分布のより良いプロキシを得る。
以上の結果から,このような報酬モデルからの蒸留は,優先アノテーションの分布変化に対するロバスト性の向上につながることが示唆された。
論文 参考訳(メタデータ) (2024-05-29T17:39:48Z) - Privacy-preserving Fine-tuning of Large Language Models through Flatness [44.290122515938954]
微分プライバシ(DP)技術は、一般化劣化のコストでプライバシーリスクを軽減するために、既存の研究で検討されている。
本稿では,DP学習モデルにおける損失景観の平坦さが,プライバシと一般化のトレードオフにおいて重要な役割を担っていることを明らかにする。
適切なウェイトフラットネスを強制する全体的枠組みを提案し、競合するプライバシ保護を伴うモデルの一般化を大幅に改善する。
論文 参考訳(メタデータ) (2024-03-07T00:44:11Z) - Differentially Private Episodic Reinforcement Learning with Heavy-tailed
Rewards [12.809396600279479]
差分プライバシ(DP)制約下での重み付き報酬を伴うマルコフ決定プロセス(MDP)の問題について検討する。
報酬に対するロバストな平均推定器を利用することで、まず重み付きMDPのための2つのフレームワークを提案する。
我々は,自家用RLとガウシアン以下のRLと,重み付き報酬とに根本的な相違があることを指摘した。
論文 参考訳(メタデータ) (2023-06-01T20:18:39Z) - Contextual bandits with concave rewards, and an application to fair
ranking [108.48223948875685]
CBCR (Contextual Bandits with Concave Rewards) に対する反省点のある最初のアルゴリズムを提案する。
我々は,スカラー・リワード問題に対するCBCRの後悔から,新たな縮小を導出した。
推薦の公正さによって動機づけられたCBCRの特別事例として,ランク付けと公正を意識した目的について述べる。
論文 参考訳(メタデータ) (2022-10-18T16:11:55Z) - High-Dimensional Sparse Linear Bandits [67.9378546011416]
データ・ポーア・システマティクスにおける疎線形包帯に対して、新しい$Omega(n2/3)$ dimension-free minimax regret lower boundを導出する。
また、関連する特徴に対する信号の大きさに関する追加の仮定の下で、次元のない$O(sqrtn)$ regret上界も証明する。
論文 参考訳(メタデータ) (2020-11-08T16:48:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。