論文の概要: From Local Binary Patterns to Pixel Difference Networks for Efficient
Visual Representation Learning
- arxiv url: http://arxiv.org/abs/2303.08414v1
- Date: Wed, 15 Mar 2023 07:28:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-16 14:37:27.166402
- Title: From Local Binary Patterns to Pixel Difference Networks for Efficient
Visual Representation Learning
- Title(参考訳): 効率的な視覚表現学習のための局所バイナリパターンから画素差分ネットワークへ
- Authors: Zhuo Su and Matti Pietik\"ainen and Li Liu
- Abstract要約: LBPはコンピュータビジョンにおける手作りの機能記述器として成功している。
ディープニューラルネットワーク、特に畳み込みニューラルネットワーク(CNN)は、強力なタスク認識機能を自動的に学習することができる。
本稿では,LBP機構をCNNモジュールの設計に組み込んで深部モデルを強化する取り組みについて述べる。
- 参考スコア(独自算出の注目度): 8.058777445771911
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: LBP is a successful hand-crafted feature descriptor in computer vision.
However, in the deep learning era, deep neural networks, especially
convolutional neural networks (CNNs) can automatically learn powerful
task-aware features that are more discriminative and of higher representational
capacity. To some extent, such hand-crafted features can be safely ignored when
designing deep computer vision models. Nevertheless, due to LBP's preferable
properties in visual representation learning, an interesting topic has arisen
to explore the value of LBP in enhancing modern deep models in terms of
efficiency, memory consumption, and predictive performance. In this paper, we
provide a comprehensive review on such efforts which aims to incorporate the
LBP mechanism into the design of CNN modules to make deep models stronger. In
retrospect of what has been achieved so far, the paper discusses open
challenges and directions for future research.
- Abstract(参考訳): LBPはコンピュータビジョンにおける手作りの機能記述器として成功している。
しかし、深層学習時代には、深層ニューラルネットワーク、特に畳み込みニューラルネットワーク(cnns)は、より識別的で高い表現能力を持つ強力なタスク認識機能を自動的に学習することができる。
このような手作りの機能は、深いコンピュータビジョンモデルを設計する際に安全に無視することができる。
それにもかかわらず、視覚表現学習におけるLBPの好ましい性質のため、効率性、メモリ消費、予測性能の観点から近代的な深層モデルの強化におけるLBPの価値を探求する興味深いトピックが生まれている。
本稿では,LBP機構をCNNモジュールの設計に組み込んで深層モデルを強化することを目的とした,そのような取り組みに関する総合的なレビューを行う。
これまでの成果を振り返って,今後の研究に向けた課題と方向性について述べる。
関連論文リスト
- Interpretability of an Interaction Network for identifying $H
\rightarrow b\bar{b}$ jets [4.553120911976256]
近年、ディープニューラルネットワークに基づくAIモデルは、これらのアプリケーションの多くで人気が高まっている。
我々は、高揚した$Hto bbarb$ jetを識別するために設計されたインタラクションネットワーク(IN)モデルを調べることで、AIモデルの解釈可能性を検討する。
さらに、INモデル内の隠れレイヤの活動を、ニューラルアクティベーションパターン(NAP)ダイアグラムとして記述する。
論文 参考訳(メタデータ) (2022-11-23T08:38:52Z) - Fine-Tuning Language Models via Epistemic Neural Networks [17.92941914728862]
大規模言語モデルは今や、機械学習における強力な新しいパラダイムの一部になっている。
本稿では、モデルの不確実性を推定するのに役立つ小さなネットワークアーキテクチャであるエピネットを用いて、これらのモデルを拡張する。
エピネットを用いて不確実なデータを優先順位付けすることにより、GLUEタスク上のBERTを2倍の少ないデータを使用しながら、同じパフォーマンスに微調整できることを示す。
論文 参考訳(メタデータ) (2022-11-03T03:24:46Z) - Multi-level Data Representation For Training Deep Helmholtz Machines [0.0]
我々は,Human Image Perception 機構を用いて,複雑な検索空間において,Helmholtz Machine と呼ばれる生物学的に妥当な生成モデルの学習を指導する。
我々は,マルチレベルデータ表現を用いて,異なる解像度の視覚的キューをネットワークの隠蔽層に提供することで,この問題を解決することを提案する。
いくつかの画像データセットの結果は、モデルがより優れた全体的な品質を得るだけでなく、生成された画像のより広範な多様性を得ることができることを示した。
論文 参考訳(メタデータ) (2022-10-26T16:55:40Z) - Transfer Learning with Deep Tabular Models [66.67017691983182]
上流データにより、グラフニューラルネットワークはGBDTモデルよりも決定的な優位性を示す。
そこで本研究では,表在化学習のための現実的な診断ベンチマークを提案する。
上流と下流の特徴セットが異なる場合の擬似特徴法を提案する。
論文 参考訳(メタデータ) (2022-06-30T14:24:32Z) - Neural Architecture Search for Dense Prediction Tasks in Computer Vision [74.9839082859151]
ディープラーニングは、ニューラルネットワークアーキテクチャエンジニアリングに対する需要の高まりにつながっている。
ニューラルネットワーク検索(NAS)は、手動ではなく、データ駆動方式でニューラルネットワークアーキテクチャを自動設計することを目的としている。
NASはコンピュータビジョンの幅広い問題に適用されている。
論文 参考訳(メタデータ) (2022-02-15T08:06:50Z) - A Lightweight, Efficient and Explainable-by-Design Convolutional Neural
Network for Internet Traffic Classification [66.58073672357064]
本稿では、インターネットトラフィック分類のための軽量で効率的なeXplainable-by-design畳み込みニューラルネットワーク(LEXNet)を提案する。
LEXNetは(軽量で効率の良い目的のために)新しい残留ブロックと(説明可能性のために)プロトタイプ層に依存している。
商用グレードのデータセットに基づいて、LEXNetは最先端のニューラルネットワークと同じ精度を維持することに成功した。
論文 参考訳(メタデータ) (2022-02-11T10:21:34Z) - Expressive Power and Loss Surfaces of Deep Learning Models [0.0]
本稿では,ディープラーニングモデルの動作に関する解説チュートリアルとして機能する。
2つ目の目標は、ディープラーニングモデルの表現力に関する現在の結果を、新しい洞察と結果で補完することである。
論文 参考訳(メタデータ) (2021-08-08T06:28:09Z) - Tensor Methods in Computer Vision and Deep Learning [120.3881619902096]
テンソル(tensor)は、複数の次元の視覚データを自然に表現できるデータ構造である。
コンピュータビジョンにおけるディープラーニングパラダイムシフトの出現により、テンソルはさらに基本的なものになっている。
本稿では,表現学習と深層学習の文脈において,テンソルとテンソル法を深く,実践的に検討する。
論文 参考訳(メタデータ) (2021-07-07T18:42:45Z) - Towards interpreting computer vision based on transformation invariant
optimization [10.820985444099536]
本研究では、ニューラルネットワークをターゲットクラスに活性化できる可視化画像を、バックプロパゲーション法により生成する。
このような手法がニューラルネットワークの洞察を得るのに役立つケースがいくつかある。
論文 参考訳(メタデータ) (2021-06-18T08:04:10Z) - A neural anisotropic view of underspecification in deep learning [60.119023683371736]
ニューラルネットが問題の未特定化を扱う方法が,データ表現に大きく依存していることを示す。
深層学習におけるアーキテクチャ的インダクティブバイアスの理解は,これらのシステムの公平性,堅牢性,一般化に対処する上で基本的であることを強調した。
論文 参考訳(メタデータ) (2021-04-29T14:31:09Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。