論文の概要: MBInception: A new Multi-Block Inception Model for Enhancing Image Processing Efficiency
- arxiv url: http://arxiv.org/abs/2412.13703v1
- Date: Wed, 18 Dec 2024 10:46:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-19 16:47:29.698326
- Title: MBInception: A new Multi-Block Inception Model for Enhancing Image Processing Efficiency
- Title(参考訳): MBInception:画像処理効率向上のための新しいマルチクロックインセプションモデル
- Authors: Fatemeh Froughirad, Reza Bakhoda Eshtivani, Hamed Khajavi, Amir Rastgoo,
- Abstract要約: 本稿では,畳み込みニューラルネットワークフレームワーク内で連続する3つの開始ブロックを用いた,革新的な画像分類モデルを提案する。
モデルとVisual Geometry Group、Residual Network、MobileNetといった確立したアーキテクチャを比較した。
その結果、私たちの新しいモデルは、さまざまなデータセットで一貫してそのモデルよりも優れています。
- 参考スコア(独自算出の注目度): 3.3748750222488657
- License:
- Abstract: Deep learning models, specifically convolutional neural networks, have transformed the landscape of image classification by autonomously extracting features directly from raw pixel data. This article introduces an innovative image classification model that employs three consecutive inception blocks within a convolutional neural networks framework, providing a comprehensive comparative analysis with well-established architectures such as Visual Geometry Group, Residual Network, and MobileNet. Through the utilization of benchmark datasets, including Canadian Institute for Advanced Researc, Modified National Institute of Standards and Technology database, and Fashion Modified National Institute of Standards and Technology database, we assess the performance of our proposed model in comparison to these benchmarks. The outcomes reveal that our novel model consistently outperforms its counterparts across diverse datasets, underscoring its effectiveness and potential for advancing the current state-of-the-art in image classification. Evaluation metrics further emphasize that the proposed model surpasses the other compared architectures, thereby enhancing the efficiency of image classification on standard datasets.
- Abstract(参考訳): 深層学習モデル、特に畳み込みニューラルネットワークは、生のピクセルデータから直接特徴を自律的に抽出することで、画像分類のランドスケープを変革した。
本稿では、畳み込みニューラルネットワークフレームワーク内で連続する3つの開始ブロックを利用する革新的な画像分類モデルを紹介し、Visual Geometry Group、Residual Network、MobileNetといった確立したアーキテクチャによる包括的な比較分析を提供する。
カナダ国立標準技術研究所(Canadian Institute for Advanced Researc, Modified National Institute of Standards and Technology database, Fashion Modified National Institute of Standards and Technology database)を含むベンチマークデータセットの利用を通じて、提案したモデルの性能をこれらのベンチマークと比較して評価する。
その結果、我々の新しいモデルは、さまざまなデータセットにまたがって、その効果と、画像分類における現在の最先端化の可能性を、一貫して上回っていることが明らかとなった。
評価指標は、提案したモデルが他の比較されたアーキテクチャを上回ることを強調し、標準データセットにおける画像分類の効率を高める。
関連論文リスト
- Reinforcing Pre-trained Models Using Counterfactual Images [54.26310919385808]
本稿では,言語誘導型生成対実画像を用いた分類モデル強化のための新しいフレームワークを提案する。
逆ファクト画像データセットを用いてモデルをテストすることにより、モデルの弱点を同定する。
我々は、分類モデルを微調整し強化するために、デファクトイメージを拡張データセットとして採用する。
論文 参考訳(メタデータ) (2024-06-19T08:07:14Z) - Enhance Image Classification via Inter-Class Image Mixup with Diffusion Model [80.61157097223058]
画像分類性能を高めるための一般的な戦略は、T2Iモデルによって生成された合成画像でトレーニングセットを増強することである。
本研究では,既存のデータ拡張技術の欠点について検討する。
Diff-Mixと呼ばれる革新的なクラス間データ拡張手法を導入する。
論文 参考訳(メタデータ) (2024-03-28T17:23:45Z) - Diffusion Model Based Visual Compensation Guidance and Visual Difference
Analysis for No-Reference Image Quality Assessment [82.13830107682232]
本稿では, 複雑な関係をモデル化する能力を示す, 最先端(SOTA)生成モデルを提案する。
生成した拡張画像とノイズを含む画像を利用する新しい拡散復元ネットワークを考案する。
2つの視覚評価枝は、得られた高レベル特徴情報を包括的に解析するように設計されている。
論文 参考訳(メタデータ) (2024-02-22T09:39:46Z) - Kandinsky: an Improved Text-to-Image Synthesis with Image Prior and
Latent Diffusion [50.59261592343479]
本稿では、潜伏拡散アーキテクチャの新しい探索であるKandinsky1を紹介する。
提案したモデルは、CLIPのイメージ埋め込みにテキスト埋め込みをマッピングするために別々に訓練されている。
また,テキスト・ツー・イメージ生成,画像融合,テキスト・画像融合,画像のバリエーション生成,テキスト・インペイント/アウトペイントなど,多様な生成モードをサポートするユーザフレンドリーなデモシステムも展開した。
論文 参考訳(メタデータ) (2023-10-05T12:29:41Z) - DeepDC: Deep Distance Correlation as a Perceptual Image Quality
Evaluator [53.57431705309919]
ImageNet Pre-trained Deep Neural Network (DNN)は、効果的な画像品質評価(IQA)モデルを構築するための顕著な転送性を示す。
我々は,事前学習DNN機能のみに基づく新しいフル参照IQA(FR-IQA)モデルを開発した。
5つの標準IQAデータセット上で,提案した品質モデルの優位性を示すため,包括的実験を行った。
論文 参考訳(メタデータ) (2022-11-09T14:57:27Z) - High-resolution semantically-consistent image-to-image translation [0.0]
本稿では,スタイル変換フェーズにおける画像のセマンティック一貫性と画素単位の品質を保った教師なし領域適応モデルを提案する。
提案モデルでは,SemI2Iモデルと比較してかなりの性能向上を示し,最先端のCyCADAモデルと同様の結果を得た。
論文 参考訳(メタデータ) (2022-09-13T19:08:30Z) - Radial Basis Function Networks for Convolutional Neural Networks to
Learn Similarity Distance Metric and Improve Interpretability [0.4061135251278187]
放射基底関数ニューラルネットワーク(RBF)はパターン分類と回帰の主要な候補である。
RBFは、従来の畳み込みニューラルネットワーク(CNN)を用いて、現代のディープラーニング研究とコンピュータビジョンに統合されていない
論文 参考訳(メタデータ) (2022-08-24T09:48:00Z) - Reconciliation of Statistical and Spatial Sparsity For Robust Image and
Image-Set Classification [27.319334479994787]
分類のための画像や画像セットデータをモデル化するために,textitJ3Sと呼ばれる新しい統計空間スパース表現を提案する。
本稿では,J3Sモデルに基づく結合スパース符号化問題の解法を提案する。
実験の結果,提案手法はFMD, UIUC, ETH-80, YTCデータベース上での競合手法よりも高い性能を示した。
論文 参考訳(メタデータ) (2021-06-01T06:33:24Z) - Polynomial Networks in Deep Classifiers [55.90321402256631]
我々は深層ニューラルネットワークの研究を統一的な枠組みで行った。
私たちのフレームワークは、各モデルの誘導バイアスに関する洞察を提供します。
提案モデルの有効性を,標準画像および音声分類ベンチマークで評価した。
論文 参考訳(メタデータ) (2021-04-16T06:41:20Z) - Improving Learning Effectiveness For Object Detection and Classification
in Cluttered Backgrounds [6.729108277517129]
本稿では,異種乱雑な背景の学習データセットを自律的に生成するフレームワークを開発する。
提案するフレームワークの学習効率は,複雑で異種な環境で改善されるべきである。
提案フレームワークの性能を実証実験により検討し,COCOデータセットを用いてトレーニングしたモデルと比較した。
論文 参考訳(メタデータ) (2020-02-27T22:28:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。