論文の概要: Evaluate the Stack Management in Effect Handlers using the libseff C Library
- arxiv url: http://arxiv.org/abs/2512.03083v1
- Date: Fri, 28 Nov 2025 18:05:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-04 20:02:54.94946
- Title: Evaluate the Stack Management in Effect Handlers using the libseff C Library
- Title(参考訳): libseff Cライブラリを用いたエフェクトハンドラのスタック管理の評価
- Authors: ZeHao Yu,
- Abstract要約: 本稿では,libseff Cライブラリ内のユーザレベルのオーバーコミットを用いた新しいスタック管理手法を提案する。
ユーザレベルのオーバーコミット実装は、スタックをオンデマンドで動的にリサイズし、メモリ使用率を改善し、従来の方法と比較して無駄を削減する。
- 参考スコア(独自算出の注目度): 3.6127988120299364
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Effect handlers are increasingly prominent in modern programming for managing complex computational effects, including concurrency, asynchronous operations, and exception handling, in a modular and flexible manner. Efficient stack management remains a significant challenge for effect handlers due to the dynamic control flow changes they introduce. This paper explores a novel stack management approach using user-level overcommitting within the libseff C library, which leverages virtual memory mechanisms and protection-based lazy allocation combined with signal-driven memory commitment. Our user-level overcommitting implementation dynamically resizes stacks on-demand, improving memory utilization and reducing waste compared to traditional methods. We rigorously benchmark and evaluate this novel strategy against conventional fixed- size stacks, segmented stacks, and kernel-based overcommitting, using metrics such as context-switch latency, stack expansion efficiency, multi-threaded performance, and robustness under rapid stack growth conditions. Experimental results demonstrate that kernel-based overcommitting achieves an effective balance between performance and flexibility, whereas our user-level implementation, while flexible, incurs additional overheads, highlighting areas for optimization. This study provides a detailed comparative analysis of various stack management strate- gies, offering practical recommendations tailored to specific application requirements and operational constraints. Future work will focus on refining user-level overcommit- ting mechanisms, mitigating non-deterministic behaviors, and expanding benchmark frameworks to include real-world scenarios.
- Abstract(参考訳): エフェクトハンドラは、並列性、非同期操作、例外処理を含む複雑な計算効果をモジュール的で柔軟な方法で管理する現代のプログラミングにおいて、ますます顕著になっている。
効率的なスタック管理は、それらが導入する動的制御フローの変化のために、エフェクトハンドラにとって重要な課題である。
本稿では,仮想メモリ機構と保護ベースの遅延割当と信号駆動型メモリコミットメントを併用した,ユーザレベルのオーバーコミットをlibseff Cライブラリ内に導入した新しいスタック管理手法を提案する。
ユーザレベルのオーバーコミット実装は、スタックをオンデマンドで動的にリサイズし、メモリ使用率を改善し、従来の方法と比較して無駄を削減する。
我々は,従来の固定サイズスタック,セグメント化されたスタック,カーネルベースのオーバーコミットに対して,コンテクストスウィッチレイテンシ,スタック拡張効率,マルチスレッド性能,高速スタック成長条件下での堅牢性といった指標を用いて,この新たな戦略を厳格にベンチマークし,評価した。
実験の結果、カーネルベースの過剰コミットはパフォーマンスと柔軟性のバランスを効果的に達成しているのに対し、ユーザレベルの実装は柔軟である一方、オーバーヘッドが増大し、最適化の領域が強調されることがわかった。
本研究は, 各種スタック管理戦略の詳細な比較分析を行い, 特定のアプリケーション要件や運用上の制約に合わせて, 実用的なレコメンデーションを提供する。
今後の作業は、ユーザレベルのオーバーコミット-ティングメカニズムの洗練、非決定論的動作の緩和、および実際のシナリオを含むベンチマークフレームワークの拡張に注力する予定である。
関連論文リスト
- Memory as Action: Autonomous Context Curation for Long-Horizon Agentic Tasks [23.201035830828726]
大規模言語モデルは、長期のエージェントタスクにおいて課題に直面します。
既存のワーキングメモリメソッドは、エージェントのコアポリシーから切り離された外部メカニズムに依存している。
本稿では,一貫したポリシーの一部として明示的な編集操作を実行することで,エージェントが作業メモリを積極的に管理する新しいフレームワーク,Memory-as-Actionを提案する。
論文 参考訳(メタデータ) (2025-10-14T15:29:57Z) - SEDM: Scalable Self-Evolving Distributed Memory for Agents [23.182291416527764]
SEDMは、メモリをパッシブリポジトリからアクティブな自己最適化コンポーネントに変換する検証可能で適応的なフレームワークである。
また,SEDMは,強いメモリベースラインに比べてトークンオーバーヘッドを低減しつつ,推論精度を向上することを示した。
結果は、SEDMをオープンエンドのマルチエージェントコラボレーションのためのスケーラブルで持続可能なメモリメカニズムとして強調する。
論文 参考訳(メタデータ) (2025-09-11T14:37:37Z) - LIFT: Latent Implicit Functions for Task- and Data-Agnostic Encoding [4.759109475818876]
Implicit Neural Representations (INR)は、多様なデータドメインをまたいだタスクモデリングを統合するための強力なパラダイムであることが証明されている。
本稿では,メタラーニングによるマルチスケール情報をキャプチャする新しい高性能フレームワークLIFTを紹介する。
また、残差接続と表現頻度符号化を組み込んだLIFTの強化版であるReLIFTについても紹介する。
論文 参考訳(メタデータ) (2025-03-19T17:00:58Z) - DSMoE: Matrix-Partitioned Experts with Dynamic Routing for Computation-Efficient Dense LLMs [86.76714527437383]
本稿では,事前学習したFFN層を計算ブロックに分割することで,分散化を実現するDSMoEを提案する。
我々は,Sigmoid アクティベーションとストレートスルー推定器を用いた適応型エキスパートルーティングを実装し,トークンがモデル知識の様々な側面に柔軟にアクセスできるようにする。
LLaMAモデルを用いた実験により、DSMoEは既存のプルーニング法やMoE法に比べて優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2025-02-18T02:37:26Z) - Autonomous Structural Memory Manipulation for Large Language Models Using Hierarchical Embedding Augmentation [0.0]
本研究では,マルチレベルセマンティック構造を通じてトークンの表現を再定義する手段として,階層的な埋め込み拡張を導入する。
その結果、より長い入力シーケンスに対して処理オーバーヘッドが大幅に削減され、計算効率が大幅に向上した。
トークン表現とメモリ構成を動的に調整する能力は、様々な予測不可能な入力条件下でモデルの堅牢性に寄与した。
論文 参考訳(メタデータ) (2025-01-23T22:20:36Z) - FactorLLM: Factorizing Knowledge via Mixture of Experts for Large Language Models [50.331708897857574]
本稿では,高度に訓練された高密度FFNを余分なサブネットワークに分解する新しいアプローチであるFacterLLMを紹介する。
FactorLLMは、最大85%のモデル性能を確保しながら、推論速度を30%以上増加させながら、ソースモデルに匹敵するパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-08-15T16:45:16Z) - Energy-efficient Task Adaptation for NLP Edge Inference Leveraging
Heterogeneous Memory Architectures [68.91874045918112]
Adapter-ALBERTは、様々なタスクにわたる最大データ再利用のための効率的なモデル最適化である。
検証されたNLPエッジアクセラレータ上でシミュレーションを行うことにより、モデルを不均一なオンチップメモリアーキテクチャにマッピングする利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T14:40:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。