論文の概要: AgentGC: Evolutionary Learning-based Lossless Compression for Genomics Data with LLM-driven Multiple Agent
- arxiv url: http://arxiv.org/abs/2601.13559v1
- Date: Tue, 20 Jan 2026 03:29:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:23.139327
- Title: AgentGC: Evolutionary Learning-based Lossless Compression for Genomics Data with LLM-driven Multiple Agent
- Title(参考訳): AgentGC: LLM駆動型多重エージェントを用いたゲノムデータの進化的学習に基づくロスレス圧縮
- Authors: Sun Hui, Ding Yanfeng, Huidong Ma, Chang Xu, Keyan Jin, Lizheng Zu, Cheng Zhong, xiaoguang Liu, Gang Wang, Wentong Cai,
- Abstract要約: AgentGCは、最初の進化的エージェントベースのゲノミクスデータ(GD)管理システムである。
AgentGCはユーザフレンドリなインターフェース、認知層、圧縮層を統合している。
9つのデータセットの14のベースラインと比較すると、平均圧縮率はそれぞれ16.66%、16.11%、16.33%である。
- 参考スコア(独自算出の注目度): 25.73008424563264
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Lossless compression has made significant advancements in Genomics Data (GD) storage, sharing and management. Current learning-based methods are non-evolvable with problems of low-level compression modeling, limited adaptability, and user-unfriendly interface. To this end, we propose AgentGC, the first evolutionary Agent-based GD Compressor, consisting of 3 layers with multi-agent named Leader and Worker. Specifically, the 1) User layer provides a user-friendly interface via Leader combined with LLM; 2) Cognitive layer, driven by the Leader, integrates LLM to consider joint optimization of algorithm-dataset-system, addressing the issues of low-level modeling and limited adaptability; and 3) Compression layer, headed by Worker, performs compression & decompression via a automated multi-knowledge learning-based compression framework. On top of AgentGC, we design 3 modes to support diverse scenarios: CP for compression-ratio priority, TP for throughput priority, and BM for balanced mode. Compared with 14 baselines on 9 datasets, the average compression ratios gains are 16.66%, 16.11%, and 16.33%, the throughput gains are 4.73x, 9.23x, and 9.15x, respectively.
- Abstract(参考訳): ロスレス圧縮はゲノミクスデータ(GD)ストレージ、共有、管理に大きな進歩をもたらした。
現在の学習ベースの手法は、低レベル圧縮モデリング、適応性の制限、ユーザフレンドリーなインターフェースといった問題に対処できない。
そこで我々は,AgentGCを提案する。AgentGCは進化型エージェントをベースとした最初のGD圧縮機で,Leader and Workerという名前のマルチエージェントを持つ3層で構成されている。
具体的には
1) ユーザ層は、LLMと組み合わせたLeadを通じて、ユーザフレンドリーなインターフェースを提供する。
2)リーダーが推進する認知層は、低レベルのモデリングと限定的な適応性の問題に対処し、LLMを統合してアルゴリズム・データセットシステムの共同最適化を検討する。
3) Workerが率いる圧縮層は,自動マルチ知識学習ベースの圧縮フレームワークを通じて圧縮・圧縮を行う。
AgentGCの上に、圧縮比優先のCP、スループット優先のTP、バランスの取れたモードのBMという3つのシナリオをサポートするモードを設計する。
9つのデータセット上の14のベースラインと比較すると、平均圧縮率は16.66%、16.11%、および16.33%であり、それぞれ4.73倍、9.23倍、9.15倍である。
関連論文リスト
- UltraCUA: A Foundation Model for Computer Use Agents with Hybrid Action [77.63125913907771]
本稿では,GUIプリミティブと高レベルのプログラムツールコールのギャップを埋める基盤モデルであるUltraCUAを提案する。
7Bおよび32Bモデルによる実験は、最先端のエージェントよりも大幅に改善されている。
論文 参考訳(メタデータ) (2025-10-20T17:48:26Z) - Compressing Many-Shots in In-Context Learning [61.231471139896506]
マルチショットプロンプトを圧縮することにより,ICL推論のメモリと計算効率を向上させる手法を提案する。
まず,既存のプロンプト圧縮手法がマルチショット圧縮には有効でないことを示す。
本稿では,レイヤワイド圧縮手法であるMemComを提案する。
論文 参考訳(メタデータ) (2025-10-17T16:57:42Z) - Layer-wise dynamic rank for compressing large language models [2.9416461160070955]
大規模言語モデル(LLM)は急速に規模を拡大し、深刻なメモリと計算上の問題を引き起こしている。
LLM圧縮のための動的ランク割り当てを階層的にバランスよく行うフレームワークであるD-Rankを提案する。
論文 参考訳(メタデータ) (2025-09-30T00:29:50Z) - PMKLC: Parallel Multi-Knowledge Learning-based Lossless Compression for Large-Scale Genomics Database [9.687284031748792]
提案するアンダーライン型アンダーラインKnowledgeアンダーラインラーニングベースアンダーライン圧縮機 (PMKLC) は4つの重要な設計である。
PMKLC-S/Mと14のベースラインを、異なる種とデータサイズを持つ15の現実世界データセットでベンチマークする。
PMKLC-S/Mは平均圧縮比を73.609%、73.480%に改善し、平均スループットを3.036に改善した。
論文 参考訳(メタデータ) (2025-07-17T05:46:08Z) - Breaking the Compression Ceiling: Data-Free Pipeline for Ultra-Efficient Delta Compression [57.71917274869577]
UltraDeltaはデータフリーのデルタ圧縮パイプラインで、超高圧縮と強力なパフォーマンスを実現する。
UltraDeltaは、冗長性を最小化し、情報を最大化し、層間、層内、大域的な寸法で性能を安定させるように設計されている。
論文 参考訳(メタデータ) (2025-05-19T10:37:22Z) - UniPCGC: Towards Practical Point Cloud Geometry Compression via an Efficient Unified Approach [4.754973569457509]
我々は,UniPCGCと呼ばれる効率的な統合ポイントクラウド幾何圧縮フレームワークを提案する。
可逆圧縮、無損失圧縮、可変レート、可変複雑性をサポートする。
損失圧縮ではCR比が8.1%、損失圧縮ではBjontegaard Delta Rate(BD-Rate)が14.02%向上した。
論文 参考訳(メタデータ) (2025-03-24T10:51:28Z) - HEMGS: A Hybrid Entropy Model for 3D Gaussian Splatting Data Compression [25.820461699307042]
本稿では,3次元ガウススプラッティング(HEMGS)のためのハイブリッドエントロピーモデルを提案する。
変数レート予測器、ハイパープライアネットワーク、自動回帰ネットワークの3つの主要コンポーネントで構成されている。
HEMGSは、ベースラインメソッドのレンダリング品質を維持しながら、約40%のサイズ削減を実現している。
論文 参考訳(メタデータ) (2024-11-27T16:08:59Z) - EoRA: Fine-tuning-free Compensation for Compressed LLM with Eigenspace Low-Rank Approximation [84.70637613266835]
EoRAは、圧縮されたLarge Language Modelを低ランク行列で拡張する微調整不要な手法である。
EoRAは、圧縮LDMの精度を回復するために、トレーニングなしの低ランク法よりも一貫して優れている。
論文 参考訳(メタデータ) (2024-10-28T17:59:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。