論文の概要: Distinguishing artefacts: evaluating the saturation point of
convolutional neural networks
- arxiv url: http://arxiv.org/abs/2105.10448v1
- Date: Fri, 21 May 2021 16:33:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-25 03:37:43.476113
- Title: Distinguishing artefacts: evaluating the saturation point of
convolutional neural networks
- Title(参考訳): 人工物の識別:畳み込みニューラルネットワークの飽和点の評価
- Authors: Ric Real, James Gopsill, David Jones, Chris Snider, Ben Hicks
- Abstract要約: 本稿では,オンラインCADモデルリポジトリから合成画像データセットを生成する手法を提案する。
1000のCADモデルをキュレートして処理し、大規模なサロゲートデータセットを生成し、10$circ$、30$circ$、60$circ$、120$circ$のステップでモデルカバレッジを特徴付ける。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Prior work has shown Convolutional Neural Networks (CNNs) trained on
surrogate Computer Aided Design (CAD) models are able to detect and classify
real-world artefacts from photographs. The applications of which support
twinning of digital and physical assets in design, including rapid extraction
of part geometry from model repositories, information search \& retrieval and
identifying components in the field for maintenance, repair, and recording. The
performance of CNNs in classification tasks have been shown dependent on
training data set size and number of classes. Where prior works have used
relatively small surrogate model data sets ($<100$ models), the question
remains as to the ability of a CNN to differentiate between models in
increasingly large model repositories. This paper presents a method for
generating synthetic image data sets from online CAD model repositories, and
further investigates the capacity of an off-the-shelf CNN architecture trained
on synthetic data to classify models as class size increases. 1,000 CAD models
were curated and processed to generate large scale surrogate data sets,
featuring model coverage at steps of 10$^{\circ}$, 30$^{\circ}$, 60$^{\circ}$,
and 120$^{\circ}$ degrees. The findings demonstrate the capability of computer
vision algorithms to classify artefacts in model repositories of up to 200,
beyond this point the CNN's performance is observed to deteriorate
significantly, limiting its present ability for automated twinning of physical
to digital artefacts. Although, a match is more often found in the top-5
results showing potential for information search and retrieval on large
repositories of surrogate models.
- Abstract(参考訳): 以前の研究では、surrogate computer aided design(cad)モデルで訓練された畳み込みニューラルネットワーク(cnns)が、写真から現実世界のアーティファクトを検出し、分類できることを示した。
設計におけるデジタルおよび物理資産のツインニングを支援するアプリケーションには、モデルリポジトリからのパーツジオメトリの迅速な抽出、情報検索 \&検索、メンテナンス、修復、記録のためのフィールド内のコンポーネントの識別などが含まれる。
分類タスクにおけるCNNの性能は、トレーニングデータセットのサイズとクラス数に依存することが示されている。
以前の作業では比較的小さなサロゲートモデルデータセット(<100ドルモデル)を使用していたが、CNNが大規模モデルリポジトリでモデルを区別できるかどうかについては疑問が残る。
本稿では,オンラインCADモデルリポジトリから合成画像データセットを生成する手法を提案する。
1000のCADモデルをキュレートして処理し、大規模なサロゲートデータセットを生成し、10$^{\circ}$、30$^{\circ}$、60$^{\circ}$、120$^{\circ}$のステップでモデルカバレッジを特徴付ける。
この結果から,最大200点までのモデルリポジトリにおけるアーティファクトを分類するコンピュータビジョンアルゴリズムの能力が示され,さらにcnnの性能は著しく低下し,物理的なアーティファクトからデジタルアーティファクトへの自動ツイン化能力が制限された。
しかし、top-5の結果では、サーロゲートモデルの大規模リポジトリにおける情報検索と検索の可能性を示すマッチがより多く見られる。
関連論文リスト
- Modeling & Evaluating the Performance of Convolutional Neural Networks for Classifying Steel Surface Defects [0.0]
近年,畳み込みニューラルネットワーク(CNN)により画像分類タスクにおける顕著な識別率が達成されている。
DenseNet201は、NEUデータセットで最大の検出率を示し、98.37%に低下した。
論文 参考訳(メタデータ) (2024-06-19T08:14:50Z) - Towards Scalable and Versatile Weight Space Learning [51.78426981947659]
本稿では,重み空間学習におけるSANEアプローチを紹介する。
ニューラルネットワーク重みのサブセットの逐次処理に向けて,超表現の概念を拡張した。
論文 参考訳(メタデータ) (2024-06-14T13:12:07Z) - Stealing the Invisible: Unveiling Pre-Trained CNN Models through
Adversarial Examples and Timing Side-Channels [14.222432788661914]
本稿では,逆画像の分類パターンをモデルから盗む手段として利用することの観察に基づくアプローチを提案する。
提案手法は,様々なモデルにまたがる様々な逆画像の誤分類を利用して,いくつかの有名な畳み込みニューラルネットワーク(CNN)と視覚変換器(ViT)アーキテクチャを指紋化する。
論文 参考訳(メタデータ) (2024-02-19T08:47:20Z) - NLLB-CLIP -- train performant multilingual image retrieval model on a
budget [65.268245109828]
NLLBモデルからテキストエンコーダを用いたNLLB-CLIP-CLIPモデルを提案する。
201言語でキャプションを持つ106,246の良質な画像のデータセットを自動生成しました。
我々は,NLLB-CLIPが最先端モデルに匹敵する品質であり,低リソース言語ではかなり優れていることを示す。
論文 参考訳(メタデータ) (2023-09-04T23:26:11Z) - Revisiting Classifier: Transferring Vision-Language Models for Video
Recognition [102.93524173258487]
ダウンストリームタスクのためのタスク非依存の深層モデルから知識を伝達することは、コンピュータビジョン研究において重要なトピックである。
本研究では,映像分類作業における知識の伝達に着目した。
予測された言語モデルを用いて、効率的な翻訳学習のための適切なセマンティックターゲットを生成する。
論文 参考訳(メタデータ) (2022-07-04T10:00:47Z) - CONVIQT: Contrastive Video Quality Estimator [63.749184706461826]
知覚ビデオ品質評価(VQA)は、多くのストリーミングおよびビデオ共有プラットフォームにおいて不可欠な要素である。
本稿では,視覚的に関連のある映像品質表現を自己指導的に学習する問題について考察する。
本研究は, 自己教師型学習を用いて, 知覚力による説得力のある表現が得られることを示す。
論文 参考訳(メタデータ) (2022-06-29T15:22:01Z) - Classification of EEG Motor Imagery Using Deep Learning for
Brain-Computer Interface Systems [79.58173794910631]
トレーニングされたT1クラス畳み込みニューラルネットワーク(CNN)モデルを使用して、運動画像の識別を成功させる能力を調べる。
理論的には、モデルが正確にトレーニングされた場合、クラスを特定し、それに従ってラベル付けすることが可能になる。
CNNモデルは復元され、より小さなサンプルデータを使用して同じ種類の運動画像データを特定するために使用される。
論文 参考訳(メタデータ) (2022-05-31T17:09:46Z) - Real-time Human Detection Model for Edge Devices [0.0]
畳み込みニューラルネットワーク(CNN)は、検出と分類タスクにおいて、従来の特徴抽出と機械学習モデルを置き換える。
最近、リアルタイムタスクのために軽量CNNモデルが導入されている。
本稿では,Raspberry Piのような限られたエッジデバイスに適合するCNNベースの軽量モデルを提案する。
論文 参考訳(メタデータ) (2021-11-20T18:42:17Z) - A Convolutional Neural Network Approach to the Classification of
Engineering Models [0.9558392439655015]
本稿では,畳み込みニューラルネットワーク(CNN)を用いたCADモデルの深層学習手法を提案する。
ResNetにインスパイアされたCADNETの残余ネットワークアーキテクチャを使うことが提案されている。
提案したネットワークアーキテクチャを用いたLFDベースのCNNアプローチと勾配向上によりCADNET上での最良の分類精度が得られた。
論文 参考訳(メタデータ) (2021-07-14T04:33:50Z) - Closed-form Continuous-Depth Models [99.40335716948101]
連続深度ニューラルモデルは高度な数値微分方程式解法に依存している。
我々は,CfCネットワークと呼ばれる,記述が簡単で,少なくとも1桁高速な新しいモデル群を提示する。
論文 参考訳(メタデータ) (2021-06-25T22:08:51Z) - Multi-task pre-training of deep neural networks for digital pathology [8.74883469030132]
私たちはまず、多くのデジタル病理データセットを22の分類タスクと約900kの画像のプールに組み立て、変換しました。
特徴抽出器として使用されるモデルは、ImageNet事前訓練されたモデルよりも大幅に改善されるか、同等のパフォーマンスを提供するかを示す。
論文 参考訳(メタデータ) (2020-05-05T08:50:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。