論文の概要: Realizing Flame State Monitoring with Very Few Visual or Infrared Images
via Few-Shot Learning
- arxiv url: http://arxiv.org/abs/2210.07845v1
- Date: Fri, 14 Oct 2022 14:14:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-17 17:55:48.575968
- Title: Realizing Flame State Monitoring with Very Few Visual or Infrared Images
via Few-Shot Learning
- Title(参考訳): 極少数の視覚画像と赤外線画像による炎状態モニタリングの実現
- Authors: Ruiyuan Kang, Panos Liatsis, Dimitrios C. Kyritsis
- Abstract要約: 燃焼モニタリングに初めて数発の学習を導入する。
両画像フォーマットで2つのアルゴリズムのトレーニングプロセス,テスト性能,推論速度を解析する。
- 参考スコア(独自算出の注目度): 2.449329947677678
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The success of current machine learning on image-based combustion monitoring
is based on massive data, which is costly even impossible for industrial
applications. To address this conflict, we introduce few-shot learning to
combustion monitoring for the first time. Two algorithms, Siamese Network
coupled with k Nearest Neighbors (SN-kNN) and Prototypical Network (PN), are
attempted. Besides, rather than purely utilizing visual images as previous
studies, we also attempt Infrared (IR) images. In this work, we analyze the
training process, test performance and inference speed of two algorithms on
both image formats, and also use t-SNE to visualize learned features. The
results demonstrate that both SN-kNN and PN are capable to distinguish flame
states from learning with 20 images per flame state. The worst performance,
which is realized by combination of PN and IR images, still possesses
precision, accuracy, recall, and F1-score all above 0.95. Through observing
images and visualizing features, we realize that visual images have more
dramatic differences between classes and have more consistent patterns inside
the class, which makes the training speed and model performance on visual
images is better. In contrast, the relatively "low-quality" IR images makes PN
hard to extract distinguishable prototypes, which causes the relative weak
performance, but with the whole training set to support classification, SN-kNN
cooperates well with IR images. On the other hand, benefited from the
architecture design, PN has a much faster speed in training and inference than
SN-kNN. The work here analyzes the characteristics of both algorithms and image
formats for the first time, which provides the guidance for further utilizing
them in combustion monitoring tasks.
- Abstract(参考訳): 画像ベースの燃焼モニタリングにおける現在の機械学習の成功は、大量のデータに基づいている。
この対立に対処するために, 燃焼モニタリングに初回, 数発学習を導入する。
2つのアルゴリズム,Siamese Network と k Nearest Neighbors (SN-kNN) と Prototypeal Network (PN) が組み合わされている。
また、従来の研究として視覚画像を純粋に活用するのではなく、赤外線画像も試みる。
本研究では,両画像形式における2つのアルゴリズムの学習過程,テスト性能,推論速度を分析し,t-sneを用いて学習特徴を可視化する。
その結果,sn-knn と pn は火炎状態ごとに20画像の学習から火炎状態を区別できることがわかった。
最悪のパフォーマンスはPNとIR画像の組み合わせで実現されたが、精度、精度、リコール、F1スコアは0.95以上である。
画像の観察と特徴の可視化を通じて,視覚画像はクラス間で劇的な違いがあり,クラス内に一貫性のあるパターンを持つことを認識し,学習速度と視覚画像のモデルパフォーマンスを向上させる。
対照的に、比較的「低品質」なIR画像は、PNが識別可能なプロトタイプの抽出を困難にしており、これは相対的な性能を低下させるが、SN-kNNのトレーニングセット全体が分類をサポートするため、IR画像とよく協力する。
一方、アーキテクチャ設計の利点により、PNはSN-kNNよりもトレーニングと推論の速度がはるかに速い。
この研究はアルゴリズムと画像形式の両方の特徴を初めて分析し、燃焼監視タスクにおいてそれらをさらに活用するためのガイダンスを提供する。
関連論文リスト
- Graph Neural Networks Provably Benefit from Structural Information: A
Feature Learning Perspective [53.999128831324576]
グラフニューラルネットワーク(GNN)は、グラフ表現学習の先駆けとなった。
本研究では,特徴学習理論の文脈におけるグラフ畳み込みの役割について検討する。
論文 参考訳(メタデータ) (2023-06-24T10:21:11Z) - EfficientTrain: Exploring Generalized Curriculum Learning for Training
Visual Backbones [80.662250618795]
本稿では視覚バックボーン(例えば視覚変換器)の効率的なトレーニングのための新しいカリキュラム学習手法を提案する。
オフザシェルフ方式として、様々な人気モデルのウォールタイムトレーニングコストを、精度を犠牲にすることなく、ImageNet-1K/22Kで1.5倍に削減する。
論文 参考訳(メタデータ) (2022-11-17T17:38:55Z) - Mix-up Self-Supervised Learning for Contrast-agnostic Applications [33.807005669824136]
コントラストに依存しないアプリケーションのための,最初の混合型自己教師型学習フレームワークを提案する。
クロスドメイン・ミックスアップに基づく画像間の低分散に対処し、画像再構成と透明性予測に基づくプレテキストタスクを構築する。
論文 参考訳(メタデータ) (2022-04-02T16:58:36Z) - AugNet: End-to-End Unsupervised Visual Representation Learning with
Image Augmentation [3.6790362352712873]
我々は、未ラベル画像の集合から画像特徴を学習するための新しいディープラーニングトレーニングパラダイムであるAugNetを提案する。
実験により,低次元空間における画像の表現が可能であることを実証した。
多くのディープラーニングベースの画像検索アルゴリズムとは異なり、我々のアプローチは外部アノテーション付きデータセットへのアクセスを必要としない。
論文 参考訳(メタデータ) (2021-06-11T09:02:30Z) - Image Restoration by Deep Projected GSURE [115.57142046076164]
Ill-posed inverse problem は、デブロアリングや超解像など、多くの画像処理アプリケーションに現れる。
本稿では,一般化されたSteinUnbiased Risk Estimator(GSURE)の「投影変換」とCNNによる潜在画像のパラメータ化を含む損失関数の最小化に基づく,新たな画像復元フレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-04T08:52:46Z) - Self-Supervised Ranking for Representation Learning [108.38993212650577]
本稿では、画像検索コンテキストにおけるランキング問題として定式化することで、自己教師型表現学習のための新しいフレームワークを提案する。
我々は、画像のランダムなビューが正に関連していると考えられるランク付けのための平均精度(AP)を最大化し、表現エンコーダを訓練する。
原則として、ランク付け基準を使用することで、対象中心のキュレートされたデータセットへの依存を排除します。
論文 参考訳(メタデータ) (2020-10-14T17:24:56Z) - Augmented Bi-path Network for Few-shot Learning [16.353228724916505]
マルチスケールでグローバル機能とローカル機能を比較するために,Augmented Bi-path Network (ABNet)を提案する。
具体的には、各画像の局所的な特徴として、有能なパッチを抽出し、埋め込みする。その後、モデルは、より堅牢な機能を強化するために、その機能を強化することを学習する。
論文 参考訳(メタデータ) (2020-07-15T11:13:38Z) - Efficient and Model-Based Infrared and Visible Image Fusion Via
Algorithm Unrolling [24.83209572888164]
赤外線および可視画像融合(IVIF)は、赤外線画像からの熱放射情報を保持する画像と、可視画像からテクスチャの詳細を取得することを期待している。
従来のCNNベースのIVIFモデルの欠点を克服するために,モデルベース畳み込みニューラルネットワーク(CNN)モデルを提案する。
論文 参考訳(メタデータ) (2020-05-12T16:15:56Z) - SynthMorph: learning contrast-invariant registration without acquired
images [8.0963891430422]
画像データを取得せずに画像登録を学習するための戦略を導入する。
この戦略は任意のMRIコントラストの堅牢かつ正確な登録を可能にする。
論文 参考訳(メタデータ) (2020-04-21T20:29:39Z) - Two-shot Spatially-varying BRDF and Shape Estimation [89.29020624201708]
形状とSVBRDFを段階的に推定した新しいディープラーニングアーキテクチャを提案する。
ドメインランダム化された幾何学と現実的な材料を用いた大規模合成学習データセットを作成する。
合成データセットと実世界のデータセットの両方の実験により、合成データセットでトレーニングされたネットワークが、実世界の画像に対してうまく一般化できることが示されている。
論文 参考訳(メタデータ) (2020-04-01T12:56:13Z) - BP-DIP: A Backprojection based Deep Image Prior [49.375539602228415]
画像復元手法として, (i)Deep Image Prior (DIP) と (ii) バックプロジェクション (BP) の2つの手法を提案する。
提案手法はBP-DIP(BP-DIP)と呼ばれ,高いPSNR値とより優れた推論実行時間を持つ通常のDIPよりも優れた性能を示す。
論文 参考訳(メタデータ) (2020-03-11T17:09:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。