論文の概要: SCONE: A Practical, Constraint-Aware Plug-in for Latent Encoding in Learned DNA Storage
- arxiv url: http://arxiv.org/abs/2602.06157v1
- Date: Thu, 05 Feb 2026 19:54:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-09 22:18:26.086481
- Title: SCONE: A Practical, Constraint-Aware Plug-in for Latent Encoding in Learned DNA Storage
- Title(参考訳): SCONE: 学習DNAストレージにおける遅延エンコーディングのための実用的で制約対応のプラグイン
- Authors: Cihan Ruan, Lebin Zhou, Rongduo Han, Linyi Han, Bingqing Zhao, Chenchen Zhu, Wei Jiang, Wei Wang, Nam Ling,
- Abstract要約: プラグインモジュールは遅延圧縮とDNAエンコーディングを1ステップに分解する。
SCONEは、DNA塩基内の潜伏空間を直接コードする4次演算を実行する。
設計は完全な可逆性を保ち、修正することなく、ハイパープライアモデルの学習した事前を活用できる。
- 参考スコア(独自算出の注目度): 11.92900213512492
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: DNA storage has matured from concept to practical stage, yet its integration with neural compression pipelines remains inefficient. Early DNA encoders applied redundancy-heavy constraint layers atop raw binary data - workable but primitive. Recent neural codecs compress data into learned latent representations with rich statistical structure, yet still convert these latents to DNA via naive binary-to-quaternary transcoding, discarding the entropy model's optimization. This mismatch undermines compression efficiency and complicates the encoding stack. A plug-in module that collapses latent compression and DNA encoding into a single step. SCONE performs quaternary arithmetic coding directly on the latent space in DNA bases. Its Constraint-Aware Adaptive Coding module dynamically steers the entropy encoder's learned probability distribution to enforce biochemical constraints - Guanine-Cytosine (GC) balance and homopolymer suppression - deterministically during encoding, eliminating post-hoc correction. The design preserves full reversibility and exploits the hyperprior model's learned priors without modification. Experiments show SCONE achieves near-perfect constraint satisfaction with negligible computational overhead (<2% latency), establishing a latent-agnostic interface for end-to-end DNA-compatible learned codecs.
- Abstract(参考訳): DNAストレージは概念から実践段階まで成熟しているが、ニューラル圧縮パイプラインとの統合は効率的ではない。
初期のDNAエンコーダは、生のバイナリデータの上に冗長性の高い制約層を適用しました。
最近のニューラルコーデックは、学習された潜在表現をリッチな統計構造で圧縮するが、これらの潜在表現を単純二進二進四進変換によってDNAに変換し、エントロピーモデルの最適化を放棄する。
このミスマッチは圧縮効率を損ね、エンコーディングスタックを複雑にする。
遅延圧縮とDNAエンコーディングを1ステップに分解するプラグインモジュール。
SCONEは、DNA塩基内の潜伏空間を直接コードする4次演算を実行する。
Constraint-Aware Adaptive Codingモジュールは、エントロピーエンコーダの学習確率分布を動的に操り、生化学的制約(GCバランスとホモポリマー抑制)を強制する。
この設計は完全な可逆性を保ち、修正することなく、ハイパープライアモデルの学習した事前を活用できる。
SCONEは計算オーバーヘッドを無視してほぼ完全な制約満足度を達成し(2%レイテンシ)、エンドツーエンドのDNA互換学習コーデックのための潜在非依存インターフェースを確立する。
関連論文リスト
- DNATokenizer: A GPU-First Byte-to-Identifier Tokenizer for High-Throughput DNA Language Models [0.0]
DNATokはGPUファーストのトークン化システムで、汎用文字列処理をバイトルックアップテーブル(LUT)ベースの識別子ストリーミングと、重複したホスト・ツー・デバイス(H2D)/計算パイプラインに置き換える。
DNATokは最適化されたHugging Faceベースラインよりも84-95倍高いエンコーディングスループットを実現し、最大1.9倍高いH2Dスループットを実現している。
論文 参考訳(メタデータ) (2026-01-09T05:08:17Z) - Near-Lossless Model Compression Enables Longer Context Inference in DNA Large Language Models [8.059385582452112]
FOCUS(Feature-Oriented Compression for Ultra-long Self-attention)は、事前訓練されたDNA LLMに挿入できるプログレッシブ・コンテクスト・圧縮モジュールである。
ホールドアウトヒト染色体では、FOCUSはほぼ無数の忠実性を達成する。
圧縮のないベースラインと比較して、FOCUSはKVキャッシュメモリを削減し、O(N2)からニア線形O(N)への効果的な推論スケーリングを変換する。
論文 参考訳(メタデータ) (2025-11-18T17:29:39Z) - NEURODNAAI: Neural pipeline approaches for the advancing dna-based information storage as a sustainable digital medium using deep learning framework [0.17398560678845074]
NeuroDNAAIはバイナリデータストリームをシンボリックDNA配列にエンコードし、置換、挿入、削除を伴うノイズのあるチャネルを通して伝達し、高い忠実さでそれらを再構築する。
理論、ワークフロー、シミュレーションをひとつのパイプラインに統合することで、NeuroDNAAIはスケーラブルで生物学的に有効なアーカイブDNAストレージを可能にします。
論文 参考訳(メタデータ) (2025-10-02T15:11:04Z) - Exploiting Discriminative Codebook Prior for Autoregressive Image Generation [54.14166700058777]
トークンベースの自己回帰画像生成システムは、まずトークンインデックスのシーケンスをコードブックでトークン化し、次にこれらのシーケンスを自己回帰パラダイムでモデル化する。
自己回帰生成モデルはインデックス値のみに基づいて訓練されるが、豊富なトークン類似性情報を含むコードブックにエンコードされた前者は利用されない。
近年の研究では、トークン上に単純なk平均クラスタリングを行い、コードブックを減らした生成モデルのトレーニングを容易にすることで、これを先に組み込もうとしている。
k-meansの代替として、差別的コードブック先駆者(DCPE)を提案する。
論文 参考訳(メタデータ) (2025-08-14T15:00:00Z) - Accelerating Error Correction Code Transformers [56.75773430667148]
本稿では,トランスを用いたデコーダの高速化手法を提案する。
最新のハードウェアでは、90%の圧縮比を実現し、算術演算エネルギー消費を少なくとも224倍削減する。
論文 参考訳(メタデータ) (2024-10-08T11:07:55Z) - Implicit Neural Multiple Description for DNA-based data storage [6.423239719448169]
DNAは、ストレージ密度と長期的な安定性のために、データストレージソリューションとして大きな可能性を秘めている。
しかし、この新素材の開発には、特に貯蔵や生物学的操作によるエラーに対処する上で、独自の課題が伴う。
我々は,DNAデータ記憶にニューラルネットワークを利用する,新しい圧縮手法と最先端の多重記述符号化(MDC)技術を開発した。
論文 参考訳(メタデータ) (2023-09-13T13:42:52Z) - Deep Quantum Error Correction [73.54643419792453]
量子誤り訂正符号(QECC)は、量子コンピューティングのポテンシャルを実現するための鍵となる要素である。
本研究では,新しいエンペンド・ツー・エンドの量子誤りデコーダを効率的に訓練する。
提案手法は,最先端の精度を実現することにより,QECCのニューラルデコーダのパワーを実証する。
論文 参考訳(メタデータ) (2023-01-27T08:16:26Z) - COIN++: Data Agnostic Neural Compression [55.27113889737545]
COIN++は、幅広いデータモダリティをシームレスに扱うニューラルネットワーク圧縮フレームワークである。
様々なデータモダリティを圧縮することで,本手法の有効性を示す。
論文 参考訳(メタデータ) (2022-01-30T20:12:04Z) - Deep DNA Storage: Scalable and Robust DNA Storage via Coding Theory and
Deep Learning [49.3231734733112]
シミュレーションデータに基づいてトレーニングされたDeep Neural Networks(DNN)、Product(TP)ベースのエラー修正コード(ECC)、安全マージンを1つのコヒーレントパイプラインに組み合わせたモジュラーで総合的なアプローチを示す。
我々の研究は, 最大で x3200 の速度向上, 40%の精度向上により, 現在の指導的ソリューションの改善を実現し, 高雑音下では1ベースあたり1.6ビットのコードレートを提供する。
論文 参考訳(メタデータ) (2021-08-31T18:21:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。