論文の概要: Deep Learning Model with GA based Feature Selection and Context
Integration
- arxiv url: http://arxiv.org/abs/2204.06189v1
- Date: Wed, 13 Apr 2022 06:28:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-14 22:03:59.264221
- Title: Deep Learning Model with GA based Feature Selection and Context
Integration
- Title(参考訳): GAに基づく特徴選択と文脈統合を用いたディープラーニングモデル
- Authors: Ranju Mandal, Basim Azam, Brijesh Verma, Mengjie Zhang
- Abstract要約: 本稿では,視覚的特徴と並行して,グローバル・ローカル・コンテクスト情報と独立に同化・学習する3層深層学習モデルを提案する。
提案モデルの新規性は,視覚層に遺伝的アルゴリズム(GA)を最適化した特徴を学習するために,1-vs-Allバイナリクラスベースの学習者が導入されたことである。
グローバルおよびローカルなコンテキスト情報を備えた最適化された視覚機能は、精度を改善し、最先端の深層CNNモデルに匹敵する安定した予測を生成するために重要な役割を果たす。
- 参考スコア(独自算出の注目度): 2.3472688456025756
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning models have been very successful in computer vision and image
processing applications. Since its inception, Many top-performing methods for
image segmentation are based on deep CNN models. However, deep CNN models fail
to integrate global and local context alongside visual features despite having
complex multi-layer architectures. We propose a novel three-layered deep
learning model that assiminlate or learns independently global and local
contextual information alongside visual features. The novelty of the proposed
model is that One-vs-All binary class-based learners are introduced to learn
Genetic Algorithm (GA) optimized features in the visual layer, followed by the
contextual layer that learns global and local contexts of an image, and finally
the third layer integrates all the information optimally to obtain the final
class label. Stanford Background and CamVid benchmark image parsing datasets
were used for our model evaluation, and our model shows promising results. The
empirical analysis reveals that optimized visual features with global and local
contextual information play a significant role to improve accuracy and produce
stable predictions comparable to state-of-the-art deep CNN models.
- Abstract(参考訳): ディープラーニングモデルはコンピュータビジョンと画像処理アプリケーションで非常に成功している。
画像セグメンテーションの多くのトップパフォーマンス手法は、その誕生以来、深層CNNモデルに基づいている。
しかし、深層cnnモデルは複雑な多層アーキテクチャを持つにもかかわらず、視覚機能と並行してグローバルおよびローカルコンテキストの統合に失敗している。
本稿では,視覚特徴と並行して,グローバルおよびローカルな文脈情報に独立して同化あるいは学習する,新たな3層ディープラーニングモデルを提案する。
提案モデルの新規性は,視覚層における遺伝的アルゴリズム(GA)に最適化された特徴を学習するために1-vs-Allバイナリクラスベースの学習者が導入され,次いで画像のグローバルなコンテキストとローカルなコンテキストを学習するコンテキスト層が導入されたことである。
stanford backgroundとcamvidベンチマーク画像解析データセットをモデル評価に用いた結果,有望な結果が得られた。
経験的分析により、グローバルおよびローカルなコンテキスト情報で最適化されたビジュアル機能は、精度の向上と最先端のディープcnnモデルに匹敵する安定した予測に重要な役割を果たすことが明らかとなった。
関連論文リスト
- Contrasting Deepfakes Diffusion via Contrastive Learning and Global-Local Similarities [88.398085358514]
Contrastive Deepfake Embeddings (CoDE)は、ディープフェイク検出に特化した新しい埋め込み空間である。
CoDEは、グローバルローカルな類似性をさらに強化することで、対照的な学習を通じて訓練される。
論文 参考訳(メタデータ) (2024-07-29T18:00:10Z) - DeepSeek-VL: Towards Real-World Vision-Language Understanding [24.57011093316788]
本稿では、実世界のビジョンと言語理解アプリケーションのためのオープンソースのVision-Language(VL)モデルであるDeepSeek-VLを紹介する。
当社のアプローチは,3つの重要な側面に基づいて構成されています。
実際のユーザシナリオからユースケース分類を作成し、インストラクションチューニングデータセットを構築します。
論文 参考訳(メタデータ) (2024-03-08T18:46:00Z) - Multi-network Contrastive Learning Based on Global and Local
Representations [4.190134425277768]
本稿では,グローバルおよびローカル表現に基づくマルチネットワークコントラスト学習フレームワークを提案する。
複数のネットワークを通じて自己指導型コントラスト学習のためのグローバル・ローカル特徴情報を導入する。
また、コントラストに使用されるサンプルの数を増やし、モデルのトレーニング効率を向上させる。
論文 参考訳(メタデータ) (2023-06-28T05:30:57Z) - Pre-training Contextualized World Models with In-the-wild Videos for
Reinforcement Learning [54.67880602409801]
本稿では,視覚制御タスクの学習を効率的に行うために,Wild 動画を多用した事前学習型世界モデルの課題について検討する。
本稿では、コンテキストと動的モデリングを明確に分離したContextualized World Models(ContextWM)を紹介する。
実験により,ContextWMを内蔵したWildビデオ事前学習は,モデルベース強化学習のサンプル効率を大幅に向上できることが示された。
論文 参考訳(メタデータ) (2023-05-29T14:29:12Z) - Learning Customized Visual Models with Retrieval-Augmented Knowledge [104.05456849611895]
我々は、ターゲットドメイン用にカスタマイズされたビジュアルモデルを構築するための、関連するWeb知識を取得するためのフレームワークであるREACTを提案する。
我々は、Webスケールデータベースから最も関連性の高い画像テキストペアを外部知識として検索し、元の重みをすべて凍結しながら、新しいモジュール化されたブロックをトレーニングするだけで、モデルをカスタマイズすることを提案する。
REACTの有効性は、ゼロ、少数、フルショット設定を含む分類、検索、検出、セグメンテーションタスクに関する広範な実験を通じて実証される。
論文 参考訳(メタデータ) (2023-01-17T18:59:06Z) - Global-and-Local Collaborative Learning for Co-Salient Object Detection [162.62642867056385]
Co-Salient Object Detection (CoSOD)の目標は、2つ以上の関連する画像を含むクエリグループに一般的に現れる有能なオブジェクトを見つけることである。
本稿では,グローバル対応モデリング(GCM)とローカル対応モデリング(LCM)を含む,グローバル・ローカル協調学習アーキテクチャを提案する。
提案したGLNetは3つの一般的なCoSODベンチマークデータセットに基づいて評価され、我々のモデルが小さなデータセット(約3k画像)でトレーニングされた場合、一部の大規模データセット(約8k-200k画像)でトレーニングされた11の最先端の競合製品(約8k-200k画像)を上回っていることを示す。
論文 参考訳(メタデータ) (2022-04-19T14:32:41Z) - Context-based Deep Learning Architecture with Optimal Integration Layer
for Image Parsing [0.0]
提案した3層コンテキストベースディープアーキテクチャは、コンテキストを視覚情報と明示的に統合することができる。
ベンチマークデータセットで評価した場合の実験結果は有望である。
論文 参考訳(メタデータ) (2022-04-13T07:35:39Z) - GraphFormers: GNN-nested Transformers for Representation Learning on
Textual Graph [53.70520466556453]
階層的にGNNコンポーネントを言語モデルのトランスフォーマーブロックと一緒にネストするGraphFormerを提案する。
提案したアーキテクチャでは、テキストエンコーディングとグラフ集約を反復的なワークフローに融合する。
さらに、プログレッシブ・ラーニング・ストラテジーを導入し、そのモデルが操作されたデータと元のデータに基づいて連続的に訓練され、グラフ上の情報を統合する能力を強化する。
論文 参考訳(メタデータ) (2021-05-06T12:20:41Z) - Multi-Level Graph Convolutional Network with Automatic Graph Learning
for Hyperspectral Image Classification [63.56018768401328]
HSI分類のための自動グラフ学習法(MGCN-AGL)を用いたマルチレベルグラフ畳み込みネットワーク(GCN)を提案する。
空間的に隣接する領域における重要度を特徴付けるために注意機構を利用することで、最も関連性の高い情報を適応的に組み込んで意思決定を行うことができる。
MGCN-AGLは局所的に生成した表現表現に基づいて画像領域間の長距離依存性を符号化する。
論文 参考訳(メタデータ) (2020-09-19T09:26:20Z) - Eigen-CAM: Class Activation Map using Principal Components [1.2691047660244335]
この論文は、解釈可能で堅牢で透明なモデルに対する需要の増加に対応するために、従来の考え方に基づいている。
提案したEigen-CAMは、畳み込み層から学習した特徴/表現の基本的なコンポーネントを計算し、視覚化する。
論文 参考訳(メタデータ) (2020-08-01T17:14:13Z) - Unifying Deep Local and Global Features for Image Search [9.614694312155798]
グローバルおよびローカルな画像特徴を1つのディープモデルに統一し、効率的な特徴抽出による正確な検索を可能にする。
我々のモデルは、改訂されたオックスフォードとパリのデータセットにおける最先端の画像検索と、Google Landmarksデータセットv2における最先端の単一モデルインスタンスレベルの認識を実現している。
論文 参考訳(メタデータ) (2020-01-14T19:59:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。