論文の概要: From Local Binary Patterns to Pixel Difference Networks for Efficient
Visual Representation Learning
- arxiv url: http://arxiv.org/abs/2303.08414v1
- Date: Wed, 15 Mar 2023 07:28:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-16 14:37:27.166402
- Title: From Local Binary Patterns to Pixel Difference Networks for Efficient
Visual Representation Learning
- Title(参考訳): 効率的な視覚表現学習のための局所バイナリパターンから画素差分ネットワークへ
- Authors: Zhuo Su and Matti Pietik\"ainen and Li Liu
- Abstract要約: LBPはコンピュータビジョンにおける手作りの機能記述器として成功している。
ディープニューラルネットワーク、特に畳み込みニューラルネットワーク(CNN)は、強力なタスク認識機能を自動的に学習することができる。
本稿では,LBP機構をCNNモジュールの設計に組み込んで深部モデルを強化する取り組みについて述べる。
- 参考スコア(独自算出の注目度): 8.058777445771911
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: LBP is a successful hand-crafted feature descriptor in computer vision.
However, in the deep learning era, deep neural networks, especially
convolutional neural networks (CNNs) can automatically learn powerful
task-aware features that are more discriminative and of higher representational
capacity. To some extent, such hand-crafted features can be safely ignored when
designing deep computer vision models. Nevertheless, due to LBP's preferable
properties in visual representation learning, an interesting topic has arisen
to explore the value of LBP in enhancing modern deep models in terms of
efficiency, memory consumption, and predictive performance. In this paper, we
provide a comprehensive review on such efforts which aims to incorporate the
LBP mechanism into the design of CNN modules to make deep models stronger. In
retrospect of what has been achieved so far, the paper discusses open
challenges and directions for future research.
- Abstract(参考訳): LBPはコンピュータビジョンにおける手作りの機能記述器として成功している。
しかし、深層学習時代には、深層ニューラルネットワーク、特に畳み込みニューラルネットワーク(cnns)は、より識別的で高い表現能力を持つ強力なタスク認識機能を自動的に学習することができる。
このような手作りの機能は、深いコンピュータビジョンモデルを設計する際に安全に無視することができる。
それにもかかわらず、視覚表現学習におけるLBPの好ましい性質のため、効率性、メモリ消費、予測性能の観点から近代的な深層モデルの強化におけるLBPの価値を探求する興味深いトピックが生まれている。
本稿では,LBP機構をCNNモジュールの設計に組み込んで深層モデルを強化することを目的とした,そのような取り組みに関する総合的なレビューを行う。
これまでの成果を振り返って,今後の研究に向けた課題と方向性について述べる。
関連論文リスト
- Visual Prompting Upgrades Neural Network Sparsification: A Data-Model
Perspective [67.25782152459851]
より優れた重量空間を実現するために、新しいデータモデル共設計視点を導入する。
具体的には、提案したVPNフレームワークでニューラルネットワークのスパーシフィケーションをアップグレードするために、カスタマイズされたVisual Promptが実装されている。
論文 参考訳(メタデータ) (2023-12-03T13:50:24Z) - Understanding deep neural networks through the lens of their
non-linearity [33.60989015233374]
本稿では,ディープニューラルネットワークにおける非線形伝搬を追跡するための,最初の理論的に健全な解を提案する。
提案した親和性スコアにより、さまざまなアーキテクチャや学習パラダイムの内部動作に関する洞察を得ることができる。
論文 参考訳(メタデータ) (2023-10-17T17:50:22Z) - Computation-efficient Deep Learning for Computer Vision: A Survey [121.84121397440337]
ディープラーニングモデルは、さまざまな視覚的知覚タスクにおいて、人間レベルのパフォーマンスに到達または超えた。
ディープラーニングモデルは通常、重要な計算資源を必要とし、現実のシナリオでは非現実的な電力消費、遅延、または二酸化炭素排出量につながる。
新しい研究の焦点は計算効率のよいディープラーニングであり、推論時の計算コストを最小限に抑えつつ、良好な性能を達成することを目指している。
論文 参考訳(メタデータ) (2023-08-27T03:55:28Z) - LowDINO -- A Low Parameter Self Supervised Learning Model [0.0]
本研究は,小規模ネットワークが巨大ネットワークの特性を活用可能なニューラルネットワークアーキテクチャの設計の可能性を検討することを目的とする。
これまでの研究では、畳み込みニューラルネットワーク(ConvNet)を使用することで、固有の帰納バイアスが得られることが示されている。
パラメータの数を減らすために、MobileViTブロックを使用してアテンションメカニズムを利用する。
論文 参考訳(メタデータ) (2023-05-28T18:34:59Z) - Interpretability of an Interaction Network for identifying $H
\rightarrow b\bar{b}$ jets [4.553120911976256]
近年、ディープニューラルネットワークに基づくAIモデルは、これらのアプリケーションの多くで人気が高まっている。
我々は、高揚した$Hto bbarb$ jetを識別するために設計されたインタラクションネットワーク(IN)モデルを調べることで、AIモデルの解釈可能性を検討する。
さらに、INモデル内の隠れレイヤの活動を、ニューラルアクティベーションパターン(NAP)ダイアグラムとして記述する。
論文 参考訳(メタデータ) (2022-11-23T08:38:52Z) - Transfer Learning with Deep Tabular Models [66.67017691983182]
上流データにより、グラフニューラルネットワークはGBDTモデルよりも決定的な優位性を示す。
そこで本研究では,表在化学習のための現実的な診断ベンチマークを提案する。
上流と下流の特徴セットが異なる場合の擬似特徴法を提案する。
論文 参考訳(メタデータ) (2022-06-30T14:24:32Z) - Neural Architecture Search for Dense Prediction Tasks in Computer Vision [74.9839082859151]
ディープラーニングは、ニューラルネットワークアーキテクチャエンジニアリングに対する需要の高まりにつながっている。
ニューラルネットワーク検索(NAS)は、手動ではなく、データ駆動方式でニューラルネットワークアーキテクチャを自動設計することを目的としている。
NASはコンピュータビジョンの幅広い問題に適用されている。
論文 参考訳(メタデータ) (2022-02-15T08:06:50Z) - Expressive Power and Loss Surfaces of Deep Learning Models [0.0]
本稿では,ディープラーニングモデルの動作に関する解説チュートリアルとして機能する。
2つ目の目標は、ディープラーニングモデルの表現力に関する現在の結果を、新しい洞察と結果で補完することである。
論文 参考訳(メタデータ) (2021-08-08T06:28:09Z) - Tensor Methods in Computer Vision and Deep Learning [120.3881619902096]
テンソル(tensor)は、複数の次元の視覚データを自然に表現できるデータ構造である。
コンピュータビジョンにおけるディープラーニングパラダイムシフトの出現により、テンソルはさらに基本的なものになっている。
本稿では,表現学習と深層学習の文脈において,テンソルとテンソル法を深く,実践的に検討する。
論文 参考訳(メタデータ) (2021-07-07T18:42:45Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。