論文の概要: Goal-Oriented Source Coding using LDPC Codes for Compressed-Domain Image Classification
- arxiv url: http://arxiv.org/abs/2503.11954v1
- Date: Sat, 15 Mar 2025 01:52:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-18 16:00:21.929222
- Title: Goal-Oriented Source Coding using LDPC Codes for Compressed-Domain Image Classification
- Title(参考訳): 圧縮領域画像分類のためのLDPC符号を用いたゴール指向ソース符号化
- Authors: Ahcen Aliouat, Elsa Dupraz,
- Abstract要約: 本稿では,低密度パリティチェック(LDPC)符号をエントロピー符号化の代替手法として使用することを検討した。
LDPC符号の構造的性質は、分類のようなタスクのためのディープラーニングモデルによりより効果的に活用できると仮定される。
MNIST、Fashion-MNIST、CIFARといったデータセットの実験では、LDPCコードは分類タスクにおいてHuffmanとArithmeticのコーディングを上回っている。
- 参考スコア(独自算出の注目度): 3.2657732635702375
- License:
- Abstract: In the emerging field of goal-oriented communications, the focus has shifted from reconstructing data to directly performing specific learning tasks, such as classification, segmentation, or pattern recognition, on the received coded data. In the commonly studied scenario of classification from compressed images, a key objective is to enable learning directly on entropy-coded data, thereby bypassing the computationally intensive step of data reconstruction. Conventional entropy-coding methods, such as Huffman and Arithmetic coding, are effective for compression but disrupt the data structure, making them less suitable for direct learning without decoding. This paper investigates the use of low-density parity-check (LDPC) codes -- originally designed for channel coding -- as an alternative entropy-coding approach. It is hypothesized that the structured nature of LDPC codes can be leveraged more effectively by deep learning models for tasks like classification. At the receiver side, gated recurrent unit (GRU) models are trained to perform image classification directly on LDPC-coded data. Experiments on datasets like MNIST, Fashion-MNIST, and CIFAR show that LDPC codes outperform Huffman and Arithmetic coding in classification tasks, while requiring significantly smaller learning models. Furthermore, the paper analyzes why LDPC codes preserve data structure more effectively than traditional entropy-coding techniques and explores the impact of key code parameters on classification performance. These results suggest that LDPC-based entropy coding offers an optimal balance between learning efficiency and model complexity, eliminating the need for prior decoding.
- Abstract(参考訳): ゴール指向コミュニケーションの新興分野において、データ再構成から、受信した符号化データに対して、分類、セグメンテーション、パターン認識などの特定の学習タスクを直接実行するようになる。
圧縮画像から分類する一般的なシナリオでは、エントロピー符号化されたデータを直接学習し、計算集約的なデータ再構成のステップをバイパスすることが主な目的である。
Huffman や Arithmetic のような従来のエントロピー符号化法は圧縮には有効であるが、データ構造を破壊し、復号化せずに直接学習するには適さない。
本稿では,低密度パリティチェック(LDPC)符号をエントロピー符号化の代替手法として使用することを検討した。
LDPC符号の構造的性質は、分類のようなタスクのためのディープラーニングモデルによりより効果的に活用できると仮定される。
受信側では、LDPC符号化データに基づいて画像分類を行うためにゲートリカレントユニット(GRU)モデルを訓練する。
MNIST、Fashion-MNIST、CIFARといったデータセットの実験では、LDPCコードは分類タスクにおいてHuffmanやArithmeticよりも優れており、学習モデルはかなり小さい。
さらに,LDPC符号が従来のエントロピー符号化手法よりも効率的にデータ構造を保存できる理由を解析し,鍵符号パラメータが分類性能に与える影響について検討する。
これらの結果から,LDPCに基づくエントロピー符号化は学習効率とモデル複雑性の最適なバランスを提供し,事前復号化の必要性をなくすことが示唆された。
関連論文リスト
- Threshold Selection for Iterative Decoding of $(v,w)$-regular Binary Codes [84.0257274213152]
繰り返しビットフリップデコーダは、sparse $(v,w)$-regular符号の効率的な選択である。
閉形式モデルに基づくしきい値決定のための具体的な基準を提案する。
論文 参考訳(メタデータ) (2025-01-23T17:38:22Z) - GLARE: Low Light Image Enhancement via Generative Latent Feature based Codebook Retrieval [80.96706764868898]
我々は、GLARE(Generative LAtent Feature based codebook Retrieval)を介して、新しい低照度画像強調(LLIE)ネットワークを提案する。
Invertible Latent Normalizing Flow (I-LNF) モジュールを開発し、LL特徴分布をNL潜在表現に整合させ、コードブック内の正しいコード検索を保証する。
さまざまなベンチマークデータセットと実世界のデータに対するGLAREの優れたパフォーマンスを確認する実験。
論文 参考訳(メタデータ) (2024-07-17T09:40:15Z) - Code Less, Align More: Efficient LLM Fine-tuning for Code Generation with Data Pruning [4.975728472540823]
各種クラスタリングとプルーニングのメトリクスを統合して、生成されたコードの正確性や機能を損なうことなく、トレーニングデータを選択的に削減する手法を提案する。
実験により,これらのプルーニング戦略は,必要な計算資源を削減するだけでなく,全体的な品質コード生成を向上することが示された。
論文 参考訳(メタデータ) (2024-07-06T10:30:43Z) - Factor Graph Optimization of Error-Correcting Codes for Belief Propagation Decoding [62.25533750469467]
低密度パリティ・チェック (LDPC) コードは、他の種類のコードに対していくつかの利点がある。
提案手法は,既存の人気符号の復号性能を桁違いに向上させる。
論文 参考訳(メタデータ) (2024-06-09T12:08:56Z) - CodecLM: Aligning Language Models with Tailored Synthetic Data [51.59223474427153]
命令追従能力のための高品質な合成データを適応的に生成するフレームワークであるCodecLMを紹介する。
まず、ターゲットの指示分布をキャプチャするために、オンザフライで生成された簡潔なキーワードであるメタデータにシード命令をエンコードする。
また、デコード中に自己論理とコントラストフィルタを導入し、データ効率の良いサンプルを調整する。
論文 参考訳(メタデータ) (2024-04-08T21:15:36Z) - Learning on JPEG-LDPC Compressed Images: Classifying with Syndromes [3.2657732635702375]
ゴール指向通信では、受信機の目的は、元のデータを再構成するのではなく、ディープラーニングモデルを適用することである。
本稿では,低密度パリティチェック(LDPC)符号を用いてエントロピー符号化を実現する方法を提案する。
論文 参考訳(メタデータ) (2024-03-15T11:07:38Z) - Sparse Attention-Based Neural Networks for Code Classification [15.296053323327312]
コード分類のためのスパース注意型ニューラルネットワーク(SACC)を提案する。
最初のステップでは、ソースコードは構文解析と前処理を行う。
サブツリーの符号化されたシーケンスは、分類のためにスパースアテンション機構を組み込んだTransformerモデルに入力される。
論文 参考訳(メタデータ) (2023-11-11T14:07:12Z) - Improving Deep Representation Learning via Auxiliary Learnable Target Coding [69.79343510578877]
本稿では,深層表現学習の補助的正規化として,新たな学習対象符号化を提案する。
具体的には、より差別的な表現を促進するために、マージンベースの三重項損失と、提案した目標符号上の相関整合損失を設計する。
論文 参考訳(メタデータ) (2023-05-30T01:38:54Z) - PEOPL: Characterizing Privately Encoded Open Datasets with Public Labels [59.66777287810985]
プライバシとユーティリティのための情報理論スコアを導入し、不誠実なユーザの平均パフォーマンスを定量化する。
次に、ランダムなディープニューラルネットワークの使用を動機付ける符号化スキームのファミリーを構築する際のプリミティブを理論的に特徴づける。
論文 参考訳(メタデータ) (2023-03-31T18:03:53Z) - Boost decoding performance of finite geometry LDPC codes with deep
learning tactics [3.1519370595822274]
有限幾何LDPC符号のクラスに対して,低複雑かつ高性能なデコーダを求める。
高品質なトレーニングデータを効果的に生成する方法について詳述する。
論文 参考訳(メタデータ) (2022-05-01T14:41:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。