論文の概要: Catalpa: GC for a Low-Variance Software Stack
- arxiv url: http://arxiv.org/abs/2509.13429v1
- Date: Tue, 16 Sep 2025 18:07:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-18 18:41:50.607665
- Title: Catalpa: GC for a Low-Variance Software Stack
- Title(参考訳): Catalpa: 低分散ソフトウェアスタックのためのGC
- Authors: Anthony Arnold, Mark Marron,
- Abstract要約: 実際には、アプリケーションの優れたパフォーマンスは、よりバイナリ関数と見なされる。
本稿では,Bosqueプログラミング言語とランタイムのための新しいガベージコレクタ,Catalpaコレクタを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The performance of an application/runtime is usually conceptualized as a continuous function where, the lower the amount of memory/time used on a given workload, then the better the compiler/runtime is. However, in practice, good performance of an application is viewed as more of a binary function - either the application responds in under, say 100 ms, and is fast enough for a user to barely notice, or it takes a noticeable amount of time, leaving the user waiting and potentially abandoning the task. Thus, performance really means how often the application is fast enough to be usable, leading industrial developers to focus on the 95th and 99th percentile tail-latencies as heavily, or moreso, than average response time. Our vision is to create a software stack that actively supports these needs via programming language and runtime system design. In this paper we present a novel garbage-collector design, the Catalpa collector, for the Bosque programming language and runtime. This allocator is designed to minimize latency and variability while maintaining high-throughput and incurring small memory overheads. To achieve these goals we leverage various features of the Bosque language, including immutability and reference-cycle freedom, to construct a collector that has bounded collection pauses, incurs fixed-constant memory overheads, and does not require any barriers or synchronization with application code.
- Abstract(参考訳): アプリケーション/ランタイムのパフォーマンスは、通常、連続的な関数として概念化されます。
しかしながら、実際には、アプリケーションの優れたパフォーマンスはバイナリ関数として見なされる — アプリケーションがアンダーに応答する、例えば100ミリ秒で、ユーザがほとんど気付かないほど高速であるか、あるいは目立った時間を要するため、ユーザが待機し、タスクを放棄する可能性がある。
したがって、パフォーマンスとは、アプリケーションが使用可能なくらいの速さで、工業開発者は平均応答時間よりも95%と99%のテールレイテンシに重きを置くことになる。
私たちのビジョンは、プログラミング言語やランタイムシステム設計を通じて、これらのニーズを積極的にサポートするソフトウェアスタックを作ることです。
本稿では,Bosque プログラミング言語とランタイムのための新しいガベージコレクタである Catalpa コレクタを提案する。
このアロケータは、高スループットを維持し、メモリオーバーヘッドを小さく抑えながら、レイテンシと可変性を最小化するように設計されている。
これらの目標を達成するために、イミュータビリティや参照サイクルの自由など、Bosque言語のさまざまな機能を活用して、コレクションの停止が制限されているコレクタを構築し、固定一貫性のメモリオーバーヘッドを発生させ、アプリケーションコードとの障壁や同期を一切必要としない。
関連論文リスト
- Kodezi Chronos: A Debugging-First Language Model for Repository-Scale Code Understanding [0.0]
大規模言語モデル(LLM)はコード生成と自動化を改善したが、推論時のコンテキストによって制限されている。
デバッグ専用に構築された言語モデルであるKodezi Chronosを紹介した。
Chronosは、Adaptive Graph-Guided Retrievalを組み合わせて、最大1000万行を、マルチホップ合成(精度92%、リコール85%)、15M以上のセッションでトレーニングされた永続化デバッグメモリ、反復的な修正-テスト-リファインループのための7層アーキテクチャを使ってナビゲートする。
5000の現実世界シナリオでは、Chronosは67.3%の修正精度を達成し、ClaudeとGPTでは14.2%、13.8%を達成している。
論文 参考訳(メタデータ) (2025-07-14T09:08:21Z) - FindingDory: A Benchmark to Evaluate Memory in Embodied Agents [49.89792845476579]
本研究では,Habitatシミュレータに長距離エンボディタスクのための新しいベンチマークを導入する。
このベンチマークは、持続的なエンゲージメントとコンテキスト認識を必要とする60タスクにわたるメモリベースの機能を評価する。
論文 参考訳(メタデータ) (2025-06-18T17:06:28Z) - An Effectively $Ω(c)$ Language and Runtime [0.0]
アプリケーションの優れたパフォーマンスは、概念的にはバイナリ関数以上のものです。
私たちのビジョンは、パフォーマンスにおいて$Omega(c)$として設計された言語とランタイムを作ることです。
論文 参考訳(メタデータ) (2024-09-30T16:57:45Z) - Compass: A Decentralized Scheduler for Latency-Sensitive ML Workflows [0.792324422300924]
我々は、GPU対応のワーカが協調して複雑なクエリを実行する分散システムにおけるMLクエリ処理について検討する。
このようなシステムでは、GPUメモリ管理とタスク配置の共スケジューリングが有望な機会である。
資源を効率的に利用しながら、仕事の遅延を軽減するためにこれらの機能を統一する新しいフレームワークであるCompassを提案する。
論文 参考訳(メタデータ) (2024-02-27T16:21:28Z) - RelayAttention for Efficient Large Language Model Serving with Long System Prompts [59.50256661158862]
本稿では,長いシステムプロンプトを含むLCMサービスの効率を向上させることを目的とする。
これらのシステムプロンプトの処理には、既存の因果注意アルゴリズムにおいて、大量のメモリアクセスが必要である。
本稿では,DRAMから入力トークンのバッチに対して,DRAMから隠れた状態を正確に1回読み取ることのできるアテンションアルゴリズムであるRelayAttentionを提案する。
論文 参考訳(メタデータ) (2024-02-22T18:58:28Z) - Introducing Language Guidance in Prompt-based Continual Learning [95.03110230754423]
本稿では,Prompt-based Continual Learning (LGCL) のための言語指導手法を提案する。
LGCLは、新しい最先端技術を設定するために、プロンプトベースの連続学習手法の性能を一貫して改善する。
論文 参考訳(メタデータ) (2023-08-30T08:03:49Z) - LongCoder: A Long-Range Pre-trained Language Model for Code Completion [56.813974784131624]
LongCoderは自己アテンションにスライディングウィンドウ機構を採用し、グローバルアクセス可能なトークンを2種類導入している。
ブリッジトークンは入力シーケンス全体を通して挿入され、ローカル情報を集約し、グローバルな相互作用を促進する。
メモリトークンは、後で呼び出され、記憶する必要がある重要なステートメントをハイライトするために含まれます。
論文 参考訳(メタデータ) (2023-06-26T17:59:24Z) - GRAPHSPY: Fused Program Semantic-Level Embedding via Graph Neural
Networks for Dead Store Detection [4.82596017481926]
低オーバーヘッドで不必要なメモリ操作をインテリジェントに識別するための学習精度の高いアプローチを提案する。
プログラムセマンティクスの抽出にいくつかの有意なグラフニューラルネットワークモデルを適用することにより,新しいハイブリッドなプログラム埋め込み手法を提案する。
その結果、我々のモデルは精度の90%を達成でき、最先端ツールのオーバーヘッドの半分程度しか発生しないことがわかった。
論文 参考訳(メタデータ) (2020-11-18T19:17:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。