論文の概要: Deep learning for classification of noisy QR codes
- arxiv url: http://arxiv.org/abs/2307.10677v1
- Date: Thu, 20 Jul 2023 07:57:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-21 14:10:23.144035
- Title: Deep learning for classification of noisy QR codes
- Title(参考訳): 雑音QRコードの分類のための深層学習
- Authors: Rebecca Leygonie (LIPADE), Sylvain Lobry (LIPADE)), Laurent Wendling
(LIPADE)
- Abstract要約: 我々は、健康パスを読む際に得られた情報から生成されたQRコードに基づいて画像分類モデルを訓練する。
深層学習に基づくモデルが抽象画像の理解に有効であると結論付けている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We wish to define the limits of a classical classification model based on
deep learning when applied to abstract images, which do not represent visually
identifiable objects.QR codes (Quick Response codes) fall into this category of
abstract images: one bit corresponding to one encoded character, QR codes were
not designed to be decoded manually. To understand the limitations of a deep
learning-based model for abstract image classification, we train an image
classification model on QR codes generated from information obtained when
reading a health pass. We compare a classification model with a classical
(deterministic) decoding method in the presence of noise. This study allows us
to conclude that a model based on deep learning can be relevant for the
understanding of abstract images.
- Abstract(参考訳): 我々は,視覚的に識別可能な対象を表現しない抽象画像に対して,ディープラーニングに基づく古典的分類モデルの限界を定義したい。qr符号(quick response codes)は,この抽象画像のカテゴリに分類される。
抽象画像分類のための深層学習に基づくモデルの限界を理解するために,健康パス読取時に得られた情報から生成されたqrコードに基づく画像分類モデルを訓練する。
雑音の存在下での分類モデルと古典的(決定論的)復号法を比較した。
本研究は,深層学習に基づくモデルが抽象画像の理解に有効であると結論付けることを可能にする。
関連論文リスト
- Accurate Explanation Model for Image Classifiers using Class Association Embedding [5.378105759529487]
本稿では,グローバルな知識とローカルな知識の利点を組み合わせた生成的説明モデルを提案する。
クラスアソシエーション埋め込み(CAE)は、各サンプルを1組のクラス関連コードと個別コードにエンコードする。
クラス関連特徴を個々の特徴から効率的に分離するビルディングブロック・コヒーレンシー特徴抽出アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-12T07:41:00Z) - Learning on JPEG-LDPC Compressed Images: Classifying with Syndromes [3.2657732635702375]
ゴール指向通信では、受信機の目的は、元のデータを再構成するのではなく、ディープラーニングモデルを適用することである。
本稿では,低密度パリティチェック(LDPC)符号を用いてエントロピー符号化を実現する方法を提案する。
論文 参考訳(メタデータ) (2024-03-15T11:07:38Z) - Image-free Classifier Injection for Zero-Shot Classification [72.66409483088995]
ゼロショット学習モデルは、訓練中に見られなかったクラスからのサンプルのイメージ分類において顕著な結果が得られる。
我々は,画像データを用いることなく,ゼロショット分類機能を備えた事前学習モデルの装備を目指す。
提案したイメージフリーインジェクション・ウィズ・セマンティックス (ICIS) でこれを実現する。
論文 参考訳(メタデータ) (2023-08-21T09:56:48Z) - Feature Activation Map: Visual Explanation of Deep Learning Models for
Image Classification [17.373054348176932]
本研究では,機能活性化マップ (FAM) と呼ばれるポストホック解釈ツールを提案する。
FAMは、FC層を分類器として使用せずにディープラーニングモデルを解釈できる。
提案したFAMアルゴリズムの有効性を実証するために,10種類の深層学習モデルを用いて,少数ショット画像分類,コントラスト学習画像分類,画像検索タスクを行った。
論文 参考訳(メタデータ) (2023-07-11T05:33:46Z) - Improving Deep Representation Learning via Auxiliary Learnable Target Coding [69.79343510578877]
本稿では,深層表現学習の補助的正規化として,新たな学習対象符号化を提案する。
具体的には、より差別的な表現を促進するために、マージンベースの三重項損失と、提案した目標符号上の相関整合損失を設計する。
論文 参考訳(メタデータ) (2023-05-30T01:38:54Z) - Not All Image Regions Matter: Masked Vector Quantization for
Autoregressive Image Generation [78.13793505707952]
既存の自己回帰モデルは、まず画像再構成のための潜伏空間のコードブックを学習し、学習したコードブックに基づいて自己回帰的に画像生成を完了する2段階生成パラダイムに従っている。
そこで本研究では,Masked Quantization VAE (MQ-VAE) Stackモデルを用いた2段階フレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-23T02:15:53Z) - Exploring CLIP for Assessing the Look and Feel of Images [87.97623543523858]
ゼロショット方式で画像の品質知覚(ルック)と抽象知覚(フィール)の両方を評価するために,コントラスト言語-画像事前学習(CLIP)モデルを導入する。
以上の結果から,CLIPは知覚的評価によく適合する有意義な先行情報を捉えることが示唆された。
論文 参考訳(メタデータ) (2022-07-25T17:58:16Z) - HIRL: A General Framework for Hierarchical Image Representation Learning [54.12773508883117]
階層型画像表現学習(HIRL)のための一般的なフレームワークを提案する。
このフレームワークは、各画像の複数の意味表現を学習することを目的としており、これらの表現は、細粒度から粗粒度まで画像意味をエンコードするように構成されている。
確率的因子化に基づいて、HIRLはオフザシェルフ画像SSLアプローチにより最もきめ細かいセマンティクスを学習し、新しいセマンティクスパス識別方式により複数の粗いセマンティクスを学習する。
論文 参考訳(メタデータ) (2022-05-26T05:13:26Z) - Explaining Classifiers by Constructing Familiar Concepts [2.7514191327409714]
本稿では,ニューロンの理解不能な表現を,人間が親しむ領域に近い表現に変換するデコーダを提案する。
ClaDecの拡張により、取引の理解性と忠実性が可能になる。
ClaDecはアーキテクチャに依存するが、分類に関してより関連性の高い入力領域を強調する傾向がある。
論文 参考訳(メタデータ) (2022-03-07T12:21:06Z) - Convolutional Neural Networks from Image Markers [62.997667081978825]
特徴 画像マーカーからの学習(FLIM)は、ごく少数の画像でユーザーが描画したストロークから、バックプロパゲーションのない畳み込みフィルタを推定するために最近提案されました。
本稿では、フルコネクテッド層に対してFLIMを拡張し、異なる画像分類問題について実証する。
その結果、FLIMベースの畳み込みニューラルネットワークは、バックプロパゲーションによってゼロから訓練された同じアーキテクチャを上回ります。
論文 参考訳(メタデータ) (2020-12-15T22:58:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。