論文の概要: CHEHAB RL: Learning to Optimize Fully Homomorphic Encryption Computations
- arxiv url: http://arxiv.org/abs/2601.19367v1
- Date: Tue, 27 Jan 2026 08:49:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-28 15:26:51.256613
- Title: CHEHAB RL: Learning to Optimize Fully Homomorphic Encryption Computations
- Title(参考訳): CHEHAB RL: 完全同型暗号化計算を最適化する学習
- Authors: Bilel Sefsaf, Abderraouf Dandani, Abdessamed Seddiki, Arab Mohammed, Eduardo Chielle, Michail Maniatakos, Riyadh Baghdadi,
- Abstract要約: ホモモルフィック暗号化(FHE)は、暗号化されたデータに直接計算を行うことができるが、その高い計算コストは依然として大きな障壁である。
本稿では、深部強化学習(RL)を利用してFHEコードの最適化を自動化する新しいフレームワークであるCHEHAB RLを提案する。
その結果、我々の手法は実行時に5.3times$のコードを生成し、2.54times$低いノイズを蓄積し、コンパイルプロセス自体はCoyoteよりも27.9times$のコードを生成することがわかった。
- 参考スコア(独自算出の注目度): 4.35834398077163
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fully Homomorphic Encryption (FHE) enables computations directly on encrypted data, but its high computational cost remains a significant barrier. Writing efficient FHE code is a complex task requiring cryptographic expertise, and finding the optimal sequence of program transformations is often intractable. In this paper, we propose CHEHAB RL, a novel framework that leverages deep reinforcement learning (RL) to automate FHE code optimization. Instead of relying on predefined heuristics or combinatorial search, our method trains an RL agent to learn an effective policy for applying a sequence of rewriting rules to automatically vectorize scalar FHE code while reducing instruction latency and noise growth. The proposed approach supports the optimization of both structured and unstructured code. To train the agent, we synthesize a diverse dataset of computations using a large language model (LLM). We integrate our proposed approach into the CHEHAB FHE compiler and evaluate it on a suite of benchmarks, comparing its performance against Coyote, a state-of-the-art vectorizing FHE compiler. The results show that our approach generates code that is $5.3\times$ faster in execution, accumulates $2.54\times$ less noise, while the compilation process itself is $27.9\times$ faster than Coyote (geometric means).
- Abstract(参考訳): FHE(Fully Homomorphic Encryption)は、暗号化されたデータに直接計算を行うことができるが、高い計算コストは依然として大きな障壁である。
効率的なFHEコードを書くことは、暗号の専門知識を必要とする複雑な作業であり、プログラム変換の最適なシーケンスを見つけることは、しばしば難解である。
本稿では、深部強化学習(RL)を利用してFHEコードの最適化を自動化する新しいフレームワークであるCHEHAB RLを提案する。
提案手法は,事前定義されたヒューリスティックスや組合せ探索に頼る代わりに,RLエージェントに対して,命令遅延や雑音の増大を低減しつつ,スカラーFHEコードの自動ベクトル化に一連の書き換え規則を適用するための効果的なポリシーを学習するように訓練する。
提案手法は構造化コードと非構造化コードの最適化をサポートする。
エージェントを訓練するために,大規模言語モデル(LLM)を用いて多様な計算データセットを合成する。
提案手法をCHEHAB FHEコンパイラに統合し,その性能を最先端ベクトル化FHEコンパイラであるCoyoteと比較した。
その結果、我々の手法は実行時に5.3\times$が高速で、2.54\times$が低ノイズで蓄積され、コンパイルプロセス自体はCoyote(幾何学的手段)よりも27.9\times$が高速であることがわかった。
関連論文リスト
- LOOPRAG: Enhancing Loop Transformation Optimization with Retrieval-Augmented Large Language Models [23.6344001089164]
LOOPRAGは,Large Language Models (LLM) の効率的なループ最適化を行うための検索拡張生成フレームワークである。
ループ特性を利用するパラメータ駆動方式を導入し、様々なループ変換をトリガーし、多様だが合法的なサンプルコードを生成する。
正確かつ効率的なコード生成を実現するために,コンパイル,テスト,パフォーマンス結果を組み込んだフィードバックベースの反復機構を導入する。
論文 参考訳(メタデータ) (2025-12-12T11:09:48Z) - CSV-Decode: Certifiable Sub-Vocabulary Decoding for Efficient Large Language Model Inference [4.832840038837715]
CSV-Decodeは、幾何上界を用いてデコードステップごとに小さなサブ語彙を構築する新しいアプローチである。
我々の手法は語彙をオフラインでクラスタ化し、センチロイド+ラディウス境界を用いて、どのトークンが語彙から安全に省略できるかを識別する。
論文 参考訳(メタデータ) (2025-11-16T14:02:41Z) - Agentic Auto-Scheduling: An Experimental Study of LLM-Guided Loop Optimization [0.9558392439655014]
大規模言語モデル(LLM)は、コンパイラとのクローズドループインタラクションを通じてプロセスをガイドする。
ComPilotは、LLMが特定のループネストのコンパイラへの変換を提案するフィードバックループを確立する。
コンパイラは変換を試み、合法性ステータスを報告し、スピードアップまたはスローダウンを測定します。
ComPilotは、元のコードに対して2.66x(単一実行)と3.54x(ベスト・オブ・5実行)の幾何平均スピードアップを達成する。
論文 参考訳(メタデータ) (2025-11-01T15:32:34Z) - CodeRL+: Improving Code Generation via Reinforcement with Execution Semantics Alignment [98.87395842351627]
大きな言語モデル(LLM)は、巨大なコードコーパスから学習することで、コード生成において優れています。
テキストパターンのトレーニングと機能的正しさの目標の間には、基本的な意味的ギャップが残っている。
我々は、コード生成のためのRLVRトレーニングパイプラインに実行セマンティクスアライメントを統合する新しいアプローチであるCodeRL+を提案する。
論文 参考訳(メタデータ) (2025-10-21T09:48:06Z) - DiffuCoder: Understanding and Improving Masked Diffusion Models for Code Generation [68.19756761027351]
拡散大言語モデル(dLLM)は自己回帰(AR)モデルの魅力的な代替品である。
本研究は,それらの認知過程と強化学習手法について考察する。
我々の研究は、dLLM生成のメカニズムについて深い洞察を与え、効果的な拡散ネイティブなRLトレーニングフレームワークを提供します。
論文 参考訳(メタデータ) (2025-06-25T17:35:47Z) - StepCoder: Improve Code Generation with Reinforcement Learning from
Compiler Feedback [58.20547418182074]
2つの主要コンポーネントからなるコード生成の新しいフレームワークであるStepCoderを紹介します。
CCCSは、長いシーケンスのコード生成タスクをCurriculum of Code Completion Subtaskに分割することで、探索課題に対処する。
FGOは、未実行のコードセグメントをマスクすることでのみモデルを最適化し、Fine-Grained Optimizationを提供する。
提案手法は,出力空間を探索し,対応するベンチマークにおいて最先端の手法より優れた性能を発揮する。
論文 参考訳(メタデータ) (2024-02-02T13:14:31Z) - Symmetric Replay Training: Enhancing Sample Efficiency in Deep Reinforcement Learning for Combinatorial Optimization [42.92248233465095]
本稿では,SRT (symmetric replay training) と呼ばれる簡易かつ効果的な手法を提案する。
提案手法は,オンラインインタラクションを伴わない対称領域の探索を促進するために,高解像度サンプルを活用する。
実世界のタスクに適用した多種多様なDRL法に対して,本手法を一貫したサンプル効率向上効果を示す実験結果を得た。
論文 参考訳(メタデータ) (2023-06-02T05:34:01Z) - Highly Parallel Autoregressive Entity Linking with Discriminative
Correction [51.947280241185]
自己回帰リンクを全ての潜在的な言及に対して並列化する,非常に効率的な手法を提案する。
我々のモデルは以前の生成法より70倍高速で精度が高い。
論文 参考訳(メタデータ) (2021-09-08T17:28:26Z) - Online Sub-Sampling for Reinforcement Learning with General Function
Approximation [111.01990889581243]
本稿では,RLアルゴリズムによって収集されたデータポイントの情報取得量を測定する,効率的なオンラインサブサンプリングフレームワークを確立する。
複雑性バウンド関数クラスを持つ値ベースのメソッドの場合、$proptooperatornamepolylog(K)$ timesに対してのみポリシーを更新する必要がある。
少なくとも$Omega(K)$倍のポリシーを更新する既存のアプローチとは対照的に、当社のアプローチはポリシーの解決における最適化コールの数を劇的に削減します。
論文 参考訳(メタデータ) (2021-06-14T07:36:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。