論文の概要: Orthonormal Product Quantization Network for Scalable Face Image
Retrieval
- arxiv url: http://arxiv.org/abs/2107.00327v1
- Date: Thu, 1 Jul 2021 09:30:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-02 13:46:50.381221
- Title: Orthonormal Product Quantization Network for Scalable Face Image
Retrieval
- Title(参考訳): スケーラブル顔画像検索のための正規化製品量子化ネットワーク
- Authors: Ming Zhang, Xuefei Zhe, Hong Yan
- Abstract要約: 本稿では,顔画像検索のためのエンド・ツー・エンドのディープラーニングフレームワークに製品量子化を統合するための最初の試みを行う。
データから量子化のためのコードワードを学習する従来のディープ量子化手法とは異なり、事前に定義された正規直交ベクトルをコードワードとして使用する新しいスキームを提案する。
- 参考スコア(独自算出の注目度): 18.06089249513754
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Recently, deep hashing with Hamming distance metric has drawn increasing
attention for face image retrieval tasks. However, its counterpart deep
quantization methods, which learn binary code representations with
dictionary-related distance metrics, have seldom been explored for the task.
This paper makes the first attempt to integrate product quantization into an
end-to-end deep learning framework for face image retrieval. Unlike prior deep
quantization methods where the codewords for quantization are learned from
data, we propose a novel scheme using predefined orthonormal vectors as
codewords, which aims to enhance the quantization informativeness and reduce
the codewords' redundancy. To make the most of the discriminative information,
we design a tailored loss function that maximizes the identity discriminability
in each quantization subspace for both the quantized and the original features.
Furthermore, an entropy-based regularization term is imposed to reduce the
quantization error. We conduct experiments on three commonly-used datasets
under the settings of both single-domain and cross-domain retrieval. It shows
that the proposed method outperforms all the compared deep hashing/quantization
methods under both settings with significant superiority. The proposed
codewords scheme consistently improves both regular model performance and model
generalization ability, verifying the importance of codewords' distribution for
the quantization quality. Besides, our model's better generalization ability
than deep hashing models indicates that it is more suitable for scalable face
image retrieval tasks.
- Abstract(参考訳): 近年,ハミング距離測定による深いハッシュ化が顔画像検索タスクの注目を集めている。
しかし,辞書関連距離メトリクスを用いたバイナリコード表現を学習する深部量子化手法は,その課題に対してほとんど検討されていない。
本稿では,製品量子化を,顔画像検索のためのエンドツーエンドディープラーニングフレームワークに統合する最初の試みを行う。
量子化のための符号語をデータから学習する先行的深部量子化法とは異なり,事前定義された正規直交ベクトルを符号語として用いる新しいスキームを提案する。
識別情報を最大限に活用するために,各量子化部分空間における識別可能性の最大化を図ったカスタマイズされた損失関数を設計する。
さらに、量子化誤差を低減するためにエントロピーに基づく正規化項が課される。
我々は、単一ドメインとクロスドメイン検索の両方の設定下で、一般的に使用される3つのデータセットの実験を行う。
その結果,提案手法は,両設定で比較した深部ハッシュ/量子化法よりも優れた性能を示すことがわかった。
提案手法は, 正規モデル性能とモデル一般化能力の両方を一貫して改善し, 量子化品質におけるコードワード分布の重要性を検証した。
さらに,本モデルでは,深部ハッシュモデルよりも一般化能力が高いことから,スケーラブルな顔画像検索作業に適していることが示唆された。
関連論文リスト
- Quantum-enhanced unsupervised image segmentation for medical images analysis [2.1485350418225244]
乳がんは、世界中で女性のがん関連死亡の原因となっている。
人工知能を用いたイメージセグメンテーションは、このワークフローを合理化するための有望な代替手段を提供する。
マンモグラフィーの医用画像セグメンテーションのための第1のエンドツーエンド量子拡張フレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-22T17:28:07Z) - Guided Deep Generative Model-based Spatial Regularization for Multiband
Imaging Inverse Problems [14.908906329456842]
本稿では,高空間分解能の補助的獲得に乗じて,データ駆動型空間正規化を導出するための汎用フレームワークを提案する。
より正確には、この空間解像度の補助画像に含まれる空間意味的特徴を符号化できる深層生成ネットワークとして、正規化が考え出される。
論文 参考訳(メタデータ) (2023-06-29T03:48:50Z) - Retrieval-based Spatially Adaptive Normalization for Semantic Image
Synthesis [68.1281982092765]
本稿では,Retrieval-based spatially AdaptIve normalization (RESAIL) と呼ばれる新しい正規化モジュールを提案する。
RESAILは、正規化アーキテクチャに対するピクセルレベルのきめ細かいガイダンスを提供する。
いくつかの挑戦的なデータセットの実験により、RESAILは定量的メトリクス、視覚的品質、主観的評価の観点から、最先端技術に対して好意的に機能することが示された。
論文 参考訳(メタデータ) (2022-04-06T14:21:39Z) - Adversarial Semantic Data Augmentation for Human Pose Estimation [96.75411357541438]
本研究では,セマンティックデータ拡張法 (SDA) を提案する。
また,適応的セマンティックデータ拡張 (ASDA) を提案する。
最先端の結果は、挑戦的なベンチマークで得られます。
論文 参考訳(メタデータ) (2020-08-03T07:56:04Z) - Image De-Quantization Using Generative Models as Priors [4.467248776406006]
De-quantizationは、量子化効果を反転させ、元のマルチクロマティックレベルのイメージを復元するタスクである。
我々は,古典的統計的推定理論に基づく厳密な数学的解析により,非量子化機構を開発する。
論文 参考訳(メタデータ) (2020-07-15T18:09:00Z) - A Flexible Framework for Designing Trainable Priors with Adaptive
Smoothing and Game Encoding [57.1077544780653]
我々は、前方通過を非滑らかな凸最適化問題として解釈できるニューラルネットワーク層の設計とトレーニングのための一般的なフレームワークを紹介する。
グラフのノードに代表されるローカルエージェントによって解決され、正規化関数を介して相互作用する凸ゲームに焦点を当てる。
このアプローチは、訓練可能なエンドツーエンドのディープモデル内で、古典的な画像の事前使用を可能にするため、画像の問題を解決するために魅力的である。
論文 参考訳(メタデータ) (2020-06-26T08:34:54Z) - The Power of Triply Complementary Priors for Image Compressive Sensing [89.14144796591685]
本稿では,一対の相補的な旅先を含むLRD画像モデルを提案する。
次に、画像CSのためのRDモデルに基づく新しいハイブリッド・プラグイン・アンド・プレイ・フレームワークを提案する。
そこで,提案したH-based image CS問題の解法として,単純で効果的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-05-16T08:17:44Z) - Invertible Image Rescaling [118.2653765756915]
Invertible Rescaling Net (IRN) を開発した。
我々は、ダウンスケーリングプロセスにおいて、指定された分布に従う潜在変数を用いて、失われた情報の分布をキャプチャする。
論文 参考訳(メタデータ) (2020-05-12T09:55:53Z) - Deep Attentive Generative Adversarial Network for Photo-Realistic Image
De-Quantization [25.805568996596783]
減量子化は、高ビット深度画面に表示するための低ビット深度画像の視覚的品質を改善することができる。
本稿では,画像強度分解能の超解像を実現するためのDAGANアルゴリズムを提案する。
DenseResAttモジュールは、自己保持機構を備えた密集した残留ブロックで構成されている。
論文 参考訳(メタデータ) (2020-04-07T06:45:01Z) - Generalized Product Quantization Network for Semi-supervised Image
Retrieval [16.500174965126238]
本稿では,GPQ(Generalized Product Quantization)ネットワークを用いた最初の量子化に基づく半教師付き画像検索手法を提案する。
ラベル付きデータのセマンティックな類似性を保ち、エントロピー正規化項を用いてラベル付きデータの固有ポテンシャルを完全に活用する新しい計量学習戦略を設計する。
我々のソリューションは量子化ネットワークの一般化能力を高め、検索コミュニティにおける以前の制限を克服することを可能にする。
論文 参考訳(メタデータ) (2020-02-26T03:36:32Z) - Joint Deep Learning of Facial Expression Synthesis and Recognition [97.19528464266824]
顔表情の合成と認識を効果的に行うための新しい統合深層学習法を提案する。
提案手法は, 2段階の学習手順を伴い, まず, 表情の異なる顔画像を生成するために, 表情合成生成対向ネットワーク (FESGAN) を事前訓練する。
実画像と合成画像間のデータバイアスの問題を軽減するために,新しい実データ誘導バックプロパゲーション(RDBP)アルゴリズムを用いたクラス内損失を提案する。
論文 参考訳(メタデータ) (2020-02-06T10:56:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。