論文の概要: From Local Binary Patterns to Pixel Difference Networks for Efficient
Visual Representation Learning
- arxiv url: http://arxiv.org/abs/2303.08414v1
- Date: Wed, 15 Mar 2023 07:28:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-16 14:37:27.166402
- Title: From Local Binary Patterns to Pixel Difference Networks for Efficient
Visual Representation Learning
- Title(参考訳): 効率的な視覚表現学習のための局所バイナリパターンから画素差分ネットワークへ
- Authors: Zhuo Su and Matti Pietik\"ainen and Li Liu
- Abstract要約: LBPはコンピュータビジョンにおける手作りの機能記述器として成功している。
ディープニューラルネットワーク、特に畳み込みニューラルネットワーク(CNN)は、強力なタスク認識機能を自動的に学習することができる。
本稿では,LBP機構をCNNモジュールの設計に組み込んで深部モデルを強化する取り組みについて述べる。
- 参考スコア(独自算出の注目度): 8.058777445771911
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: LBP is a successful hand-crafted feature descriptor in computer vision.
However, in the deep learning era, deep neural networks, especially
convolutional neural networks (CNNs) can automatically learn powerful
task-aware features that are more discriminative and of higher representational
capacity. To some extent, such hand-crafted features can be safely ignored when
designing deep computer vision models. Nevertheless, due to LBP's preferable
properties in visual representation learning, an interesting topic has arisen
to explore the value of LBP in enhancing modern deep models in terms of
efficiency, memory consumption, and predictive performance. In this paper, we
provide a comprehensive review on such efforts which aims to incorporate the
LBP mechanism into the design of CNN modules to make deep models stronger. In
retrospect of what has been achieved so far, the paper discusses open
challenges and directions for future research.
- Abstract(参考訳): LBPはコンピュータビジョンにおける手作りの機能記述器として成功している。
しかし、深層学習時代には、深層ニューラルネットワーク、特に畳み込みニューラルネットワーク(cnns)は、より識別的で高い表現能力を持つ強力なタスク認識機能を自動的に学習することができる。
このような手作りの機能は、深いコンピュータビジョンモデルを設計する際に安全に無視することができる。
それにもかかわらず、視覚表現学習におけるLBPの好ましい性質のため、効率性、メモリ消費、予測性能の観点から近代的な深層モデルの強化におけるLBPの価値を探求する興味深いトピックが生まれている。
本稿では,LBP機構をCNNモジュールの設計に組み込んで深層モデルを強化することを目的とした,そのような取り組みに関する総合的なレビューを行う。
これまでの成果を振り返って,今後の研究に向けた課題と方向性について述べる。
関連論文リスト
- QIXAI: A Quantum-Inspired Framework for Enhancing Classical and Quantum Model Transparency and Understanding [0.0]
ディープラーニングモデルは、解釈可能性の欠如によってしばしば妨げられ、それらを"ブラックボックス"にする。
本稿では、量子インスピレーションによるニューラルネットワークの解釈性向上のための新しいアプローチであるQIXAIフレームワークを紹介する。
このフレームワークは量子システムと古典システムの両方に適用され、様々なモデルにおける解釈可能性と透明性を改善する可能性を示している。
論文 参考訳(メタデータ) (2024-10-21T21:55:09Z) - Contrastive Learning in Memristor-based Neuromorphic Systems [55.11642177631929]
スパイクニューラルネットワークは、現代のバックプロパゲーションによって訓練されたディープネットワークに直面する重要な制約の多くを横取りする、ニューロンベースのモデルの重要なファミリーとなっている。
本研究では,前向き・後向き学習のニューロモルフィック形式であるコントラッシブ・シグナル依存型塑性(CSDP)の概念実証を設計し,検討する。
論文 参考訳(メタデータ) (2024-09-17T04:48:45Z) - Convergence Analysis for Deep Sparse Coding via Convolutional Neural Networks [7.956678963695681]
スパースコーディングとディープラーニングの交差点を探索し,特徴抽出能力の理解を深める。
我々は、畳み込みニューラルネットワーク(CNN)のスパース特徴抽出能力の収束率を導出する。
スパースコーディングとCNNの強いつながりにインスパイアされた私たちは、ニューラルネットワークがよりスパースな機能を学ぶように促すトレーニング戦略を探求する。
論文 参考訳(メタデータ) (2024-08-10T12:43:55Z) - Towards Scalable and Versatile Weight Space Learning [51.78426981947659]
本稿では,重み空間学習におけるSANEアプローチを紹介する。
ニューラルネットワーク重みのサブセットの逐次処理に向けて,超表現の概念を拡張した。
論文 参考訳(メタデータ) (2024-06-14T13:12:07Z) - Spiking representation learning for associative memories [0.0]
本稿では、教師なし表現学習と連想記憶操作を行う新しい人工スパイクニューラルネットワーク(SNN)を提案する。
モデルの構造は新皮質列状構造から派生し,隠れた表現を学習するためのフィードフォワードプロジェクションと,連想記憶を形成するための繰り返しプロジェクションを組み合わせたものである。
論文 参考訳(メタデータ) (2024-06-05T08:30:11Z) - Manipulating Feature Visualizations with Gradient Slingshots [54.31109240020007]
本稿では,モデルの決定過程に大きな影響を及ぼすことなく,特徴可視化(FV)を操作する新しい手法を提案する。
ニューラルネットワークモデルにおける本手法の有効性を評価し,任意の選択したニューロンの機能を隠蔽する能力を示す。
論文 参考訳(メタデータ) (2024-01-11T18:57:17Z) - Visual Prompting Upgrades Neural Network Sparsification: A Data-Model Perspective [64.04617968947697]
より優れた重量空間を実現するために、新しいデータモデル共設計視点を導入する。
具体的には、提案したVPNフレームワークでニューラルネットワークのスパーシフィケーションをアップグレードするために、カスタマイズされたVisual Promptが実装されている。
論文 参考訳(メタデータ) (2023-12-03T13:50:24Z) - Interpretability of an Interaction Network for identifying $H
\rightarrow b\bar{b}$ jets [4.553120911976256]
近年、ディープニューラルネットワークに基づくAIモデルは、これらのアプリケーションの多くで人気が高まっている。
我々は、高揚した$Hto bbarb$ jetを識別するために設計されたインタラクションネットワーク(IN)モデルを調べることで、AIモデルの解釈可能性を検討する。
さらに、INモデル内の隠れレイヤの活動を、ニューラルアクティベーションパターン(NAP)ダイアグラムとして記述する。
論文 参考訳(メタデータ) (2022-11-23T08:38:52Z) - Transfer Learning with Deep Tabular Models [66.67017691983182]
上流データにより、グラフニューラルネットワークはGBDTモデルよりも決定的な優位性を示す。
そこで本研究では,表在化学習のための現実的な診断ベンチマークを提案する。
上流と下流の特徴セットが異なる場合の擬似特徴法を提案する。
論文 参考訳(メタデータ) (2022-06-30T14:24:32Z) - Neural Architecture Search for Dense Prediction Tasks in Computer Vision [74.9839082859151]
ディープラーニングは、ニューラルネットワークアーキテクチャエンジニアリングに対する需要の高まりにつながっている。
ニューラルネットワーク検索(NAS)は、手動ではなく、データ駆動方式でニューラルネットワークアーキテクチャを自動設計することを目的としている。
NASはコンピュータビジョンの幅広い問題に適用されている。
論文 参考訳(メタデータ) (2022-02-15T08:06:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。