論文の概要: SARS-CoV-2 Coronavirus Data Compression Benchmark
- arxiv url: http://arxiv.org/abs/2012.12013v1
- Date: Mon, 21 Dec 2020 16:41:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-20 00:10:24.589038
- Title: SARS-CoV-2 Coronavirus Data Compression Benchmark
- Title(参考訳): SARS-CoV-2 コロナウイルスデータ圧縮ベンチマーク
- Authors: Innar Liiv
- Abstract要約: データは、Cncbinlm.govの重症急性呼吸器症候群ウイルス2データハブから得られた。
競争の進展はurlhttps://coronavirus.innar.comで報告される。
- 参考スコア(独自算出の注目度): 2.28438857884398
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces a lossless data compression competition that benchmarks
solutions (computer programs) by the compressed size of the 44,981 concatenated
SARS-CoV-2 sequences, with a total uncompressed size of 1,339,868,341 bytes.
The data, downloaded on 13 December 2020, from the severe acute respiratory
syndrome coronavirus 2 data hub of ncbi.nlm.nih.gov is presented in FASTA and
2Bit format. The aim of this competition is to encourage multidisciplinary
research to find the shortest lossless description for the sequences and to
demonstrate that data compression can serve as an objective and repeatable
measure to align scientific breakthroughs across disciplines. The shortest
description of the data is the best model; therefore, further reducing the size
of this description requires a fundamental understanding of the underlying
context and data. This paper presents preliminary results with multiple
well-known compression algorithms for baseline measurements, and insights
regarding promising research avenues. The competition's progress will be
reported at \url{https://coronavirus.innar.com}, and the benchmark is open for
all to participate and contribute.
- Abstract(参考訳): 本稿では、44,981連結SARS-CoV-2列の圧縮サイズで、総圧縮サイズ1,339,868,341バイトの解(コンピュータプログラム)をベンチマークするロスレスデータ圧縮競合を紹介する。
2020年12月13日、重篤な急性呼吸器症候群ウイルス2型データハブであるncbi.nlm.nih.govからダウンロードされたデータは、FASTAおよび2Bit形式で提示される。
このコンペティションの目的は、複数の学際的な研究を奨励し、シーケンスの最も短いロスレス記述を見つけ、データ圧縮が、科学的なブレークスルーを分野間で整合させる客観的かつ反復的な尺度として役立つことを実証することである。
データの最も短い記述は最良のモデルであり、従って、この記述のサイズをさらに小さくするには、基礎となるコンテキストとデータの根本的な理解が必要である。
本稿では,ベースライン計測のための複数のよく知られた圧縮アルゴリズムによる予備的な結果と,有望な研究手法に関する知見を示す。
競争の進展は \url{https://coronavirus.innar.com} で報告される。
関連論文リスト
- Neural-based Compression Scheme for Solar Image Data [8.374518151411612]
我々は、NASAのデータ集約画像ミッションで使用されるニューラルネットワークに基づく損失圧縮手法を提案する。
本研究では,画像の局所構造と大域構造の両方を捉えるために,局所的および非局所的アテンションモジュールを備えた逆トレーニングニューラルネットワークを提案する。
このアルゴリズムをSDOデータ解析に使用するための概念実証として、圧縮画像を用いてコロナホール(CH)検出を行った。
論文 参考訳(メタデータ) (2023-11-06T04:13:58Z) - Approximating Human-Like Few-shot Learning with GPT-based Compression [55.699707962017975]
我々は、推論中にデータ圧縮を可能にする、人間のような学習能力を備えた生成事前学習モデルを提案する。
本稿では,GPT(Generative Pre-trained Transformer)を用いてコルモゴロフ複雑性を近似する手法を提案する。
論文 参考訳(メタデータ) (2023-08-14T05:22:33Z) - Scalable Hybrid Learning Techniques for Scientific Data Compression [6.803722400888276]
科学者は、抽出された興味の量(QoIs)を正確に保存する圧縮技術を必要とする
本稿では,データ圧縮のためのエンドツーエンドでスケーラブルなGPUベースのパイプラインとして実装された物理インフォームド圧縮手法を提案する。
論文 参考訳(メタデータ) (2022-12-21T03:00:18Z) - Unrolled Compressed Blind-Deconvolution [77.88847247301682]
sparse multi channel blind deconvolution (S-MBD) はレーダー/ソナー/超音波イメージングなどの多くの工学的応用で頻繁に発生する。
そこで本研究では,受信した全信号に対して,はるかに少ない測定値からブラインドリカバリを可能にする圧縮手法を提案する。
論文 参考訳(メタデータ) (2022-09-28T15:16:58Z) - Implicit Neural Representations for Image Compression [103.78615661013623]
Inlicit Neural Representations (INRs) は、様々なデータ型の新規かつ効果的な表現として注目されている。
量子化、量子化を考慮した再学習、エントロピー符号化を含むINRに基づく最初の包括的圧縮パイプラインを提案する。
我々は、INRによるソース圧縮に対する我々のアプローチが、同様の以前の作業よりも大幅に優れていることに気付きました。
論文 参考訳(メタデータ) (2021-12-08T13:02:53Z) - Efficient Data Compression for 3D Sparse TPC via Bicephalous
Convolutional Autoencoder [8.759778406741276]
この研究は、textitBicephalous Convolutional AutoEncoder (BCAE)と呼ばれる、空間と回帰を同時に解決するデュアルヘッドオートエンコーダを導入している。
これはMGARD、SZ、ZFPといった従来のデータ圧縮手法と比較して圧縮忠実度と比の両方の利点を示している。
論文 参考訳(メタデータ) (2021-11-09T21:26:37Z) - Exploring Autoencoder-based Error-bounded Compression for Scientific
Data [14.724393511470225]
我々は,SZモデルの観点から,エラーバウンドオートエンコーダベースのフレームワークを開発する。
設計したAEベースエラーバウンド圧縮フレームワークの主段の圧縮品質を最適化する。
論文 参考訳(メタデータ) (2021-05-25T07:53:32Z) - Towards Compact CNNs via Collaborative Compression [166.86915086497433]
チャネルプルーニングとテンソル分解を結合してCNNモデルを圧縮する協調圧縮方式を提案する。
52.9%のFLOPを削減し、ResNet-50で48.4%のパラメータを削除しました。
論文 参考訳(メタデータ) (2021-05-24T12:07:38Z) - Analyzing and Mitigating JPEG Compression Defects in Deep Learning [69.04777875711646]
本稿では,JPEG圧縮が共通タスクやデータセットに与える影響を統一的に検討する。
高圧縮の一般的なパフォーマンス指標には大きなペナルティがあることが示される。
論文 参考訳(メタデータ) (2020-11-17T20:32:57Z) - CO-Search: COVID-19 Information Retrieval with Semantic Search, Question
Answering, and Abstractive Summarization [53.67205506042232]
CO-Searchは、新型コロナウイルスの文献上の複雑なクエリを処理するように設計された、レトリバーランサーセマンティック検索エンジンである。
ドメイン固有の比較的限られたデータセットを考慮し、文書の段落と引用の2部グラフを生成する。
TREC-COVID情報検索課題のデータに基づいて,本システムの評価を行った。
論文 参考訳(メタデータ) (2020-06-17T01:32:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。