論文の概要: Crash-Consistent Checkpointing for AI Training on macOS/APFS
- arxiv url: http://arxiv.org/abs/2511.18323v1
- Date: Sun, 23 Nov 2025 07:29:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:24.773855
- Title: Crash-Consistent Checkpointing for AI Training on macOS/APFS
- Title(参考訳): macOS/APFS上のAIトレーニングのためのクラッシュ一貫性チェックポイント
- Authors: Juha Jeon,
- Abstract要約: 本稿では,AIトレーニングにおけるチェックポイントインストールプロトコルと整合性検証の実験的検討を行う。
unsafe(ベースライン、fsyncなし)、Atomic_nodirsync(fsync()経由のファイルレベルの耐久性)、Atomic_dirsync(file + ディレクトリの耐久性)の3つの書き込みモードを実装しています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Deep learning training relies on periodic checkpoints to recover from failures, but unsafe checkpoint installation can leave corrupted files on disk. This paper presents an experimental study of checkpoint installation protocols and integrity validation for AI training on macOS/APFS. We implement three write modes with increasing durability guarantees: unsafe (baseline, no fsync), atomic_nodirsync (file-level durability via fsync()), and atomic_dirsync (file + directory durability). We design a format-agnostic integrity guard using SHA-256 checksums with automatic rollback. Through controlled experiments including crash injection (430 unsafe-mode trials) and corruption injection (1,600 atomic-mode trials), we demonstrate that the integrity guard detects 99.8-100% of corruptions with zero false positives. Performance overhead is 56.5-108.4% for atomic_nodirsync and 84.2-570.6% for atomic_dirsync relative to the unsafe baseline. Our findings quantify the reliability-performance trade-offs and provide deployment guidance for production AI infrastructure.
- Abstract(参考訳): ディープラーニングトレーニングは、障害から回復するための定期的なチェックポイントに依存するが、安全でないチェックポイントインストールは、破損したファイルをディスクに残すことができる。
本稿では,macOS/APFS上でのAIトレーニングにおけるチェックポイントインストールプロトコルと整合性検証の実験的検討を行う。
unsafe(ベースライン、fsyncなし)、Atomic_nodirsync(fsync()経由のファイルレベルの耐久性)、Atomic_dirsync(ファイル+ディレクトリの耐久性)の3つの書き込みモードを実装しています。
自動ロールバックを備えたSHA-256チェックサムを用いて,フォーマットに依存しない整合ガードを設計する。
クラッシュインジェクション (430アンセーフモード試験) や汚職インジェクション (1,600原子モード試験) などの制御実験により, 整合性ガードは偽陽性ゼロの汚職の99.8-100%を検出することを示した。
パフォーマンスのオーバーヘッドはアトミック_nodirsyncが56.5-108.4%、アトミック_dirsyncが84.2-570.6%である。
我々の研究結果は信頼性と性能のトレードオフを定量化し、実運用AIインフラストラクチャへのデプロイメントガイダンスを提供する。
関連論文リスト
- Outrunning LLM Cutoffs: A Live Kernel Crash Resolution Benchmark for All [57.23434868678603]
Live-kBenchは、新たに発見されたカーネルバグのエージェントをスクラップし、評価するセルフ進化ベンチマークの評価フレームワークである。
kEnvは、カーネルのコンパイル、実行、フィードバックのためのエージェントに依存しないクラッシュ解決環境である。
kEnvを用いて3つの最先端エージェントをベンチマークし、最初の試行で74%のクラッシュを解決したことを示す。
論文 参考訳(メタデータ) (2026-02-02T19:06:15Z) - RealSec-bench: A Benchmark for Evaluating Secure Code Generation in Real-World Repositories [58.32028251925354]
LLM(Large Language Models)は、コード生成において顕著な能力を示しているが、セキュアなコードを生成する能力は依然として重要で、未調査の領域である。
我々はRealSec-benchを紹介します。RealSec-benchは、現実世界の高リスクなJavaリポジトリから慎重に構築されたセキュアなコード生成のための新しいベンチマークです。
論文 参考訳(メタデータ) (2026-01-30T08:29:01Z) - Security Audit of intel ICE Driver for e810 Network Interface Card [0.0]
本研究では,E810イーサネットコントローラを用いたIntel ICEドライバのセキュリティ解析を行った。
静的解析、ファズテスト、タイミングに基づくサイドチャネル評価を採用して、エクスプロイトに対する評価を行う。
論文 参考訳(メタデータ) (2025-10-31T20:20:10Z) - Securing LLM-Generated Embedded Firmware through AI Agent-Driven Validation and Patching [0.9582466286528458]
大規模言語モデル(LLM)は組み込みシステムのためのファームウェアの生成を約束するが、しばしばセキュリティ上の欠陥を導入し、リアルタイムのパフォーマンス制約を満たさない。
本稿では,LLMベースのファームウェア生成と自動セキュリティ検証,反復的改善を組み合わせた3段階手法を提案する。
論文 参考訳(メタデータ) (2025-09-12T05:15:35Z) - UnsafeChain: Enhancing Reasoning Model Safety via Hard Cases [57.69882799751655]
さまざまなソースを持つハードプロンプトから構築された安全アライメントデータセットであるUnsafeChainをリリースする。
我々は3つの大きな推論モデル(LRM)を微調整し、それらを最近のSafeChainとSTAR-1と比較する。
UnsafeChainは、1Kサブセットのマッチングやベースラインのパフォーマンスを越えながら、従来よりも一貫してパフォーマンスが向上している。
論文 参考訳(メタデータ) (2025-07-29T10:08:52Z) - DyePack: Provably Flagging Test Set Contamination in LLMs Using Backdoors [52.85182605005619]
トレーニング中にベンチマークテストセットを使用したモデルを識別するためにバックドアアタックを利用するフレームワークであるDiePackを紹介します。
銀行が染料パックにお金を混ぜて強盗をマークするのと同じように、DiePackはバックドアのサンプルとテストデータとを混ぜて、その上で訓練されたモデルのフラグを立てる。
我々はDiePackを3つのデータセットにわたる5つのモデルで評価し、複数の選択とオープンな生成タスクの両方をカバーした。
論文 参考訳(メタデータ) (2025-05-29T02:22:14Z) - A Match Made in Heaven? Matching Test Cases and Vulnerabilities With the VUTECO Approach [3.8265249634979734]
本稿では,Javaリポジトリから脆弱性知能テストのインスタンスを収集するディープラーニングベースのアプローチであるVUTECOを紹介する。
VUTECOはFindingタスクに対処し、VUL4Jで検証されたテストケースの完全精度と0.83 F0.5スコアを達成した。
マッチタスクに十分なパフォーマンスを示したにもかかわらず、VUTECOは野生での有効な試合の回収に失敗した。
論文 参考訳(メタデータ) (2025-02-05T17:02:42Z) - SHIELD: Secure Host-Independent Extensible Logging for Tamper-Proof Detection and Real-Time Mitigation of Ransomware Threats [17.861324495723487]
低レベルのモニタリングとネットワークブロックデバイス(NBD)技術を活用して,ディスクアクティビティの連続観察のためのオフホスト,タンパー保護計測を行うメトリクス取得フレームワークShiELDを紹介した。
私たちは、ディスクアクションの頻度に基づいて集約された単純なメトリクスとともに、深い機能を採用しています。
コンセプションのデプロイでは、ランサムウェア検出後の悪質なディスク操作を最小限のファイル損失とメモリ破損で停止させることにより、これらのメトリクスでトレーニングされたモデルを用いてリアルタイムな緩和を実演する。
論文 参考訳(メタデータ) (2025-01-28T01:33:03Z) - Automated Proof Generation for Rust Code via Self-Evolution [69.25795662658356]
私たちは、Rustコードの自動証明生成を可能にする、人書きスニペットの欠如を克服するフレームワークであるSAFEを紹介します。
SAFEは、細調整されたモデルの自己老化能力を訓練するために、多数の合成不正確な証明を再利用する。
我々は、人間の専門家によるベンチマークで52.52%の精度で達成し、GPT-4oのパフォーマンス14.39%を大きく上回った。
論文 参考訳(メタデータ) (2024-10-21T08:15:45Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。