論文の概要: An analysis of the transfer learning of convolutional neural networks
for artistic images
- arxiv url: http://arxiv.org/abs/2011.02727v2
- Date: Tue, 24 Nov 2020 13:18:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-29 12:05:36.199531
- Title: An analysis of the transfer learning of convolutional neural networks
for artistic images
- Title(参考訳): 芸術的画像のための畳み込みニューラルネットワークの転送学習の解析
- Authors: Nicolas Gonthier and Yann Gousseau and Sa\"id Ladjal
- Abstract要約: 巨大な自然画像データセットからのトランスファー学習は、アート分析アプリケーションの中核となっている。
本稿ではまず,ネットワークの内部表現を可視化する手法を用いて,ネットワークが芸術的イメージで何を学んだかを理解するための手がかりを提供する。
特徴空間とパラメータ空間の両方のメトリクスと、最大アクティベーション画像のセットで計算されたメトリクスのおかげで、学習プロセスが導入した変化を定量的に分析する。
- 参考スコア(独自算出の注目度): 1.9336815376402716
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transfer learning from huge natural image datasets, fine-tuning of deep
neural networks and the use of the corresponding pre-trained networks have
become de facto the core of art analysis applications. Nevertheless, the
effects of transfer learning are still poorly understood. In this paper, we
first use techniques for visualizing the network internal representations in
order to provide clues to the understanding of what the network has learned on
artistic images. Then, we provide a quantitative analysis of the changes
introduced by the learning process thanks to metrics in both the feature and
parameter spaces, as well as metrics computed on the set of maximal activation
images. These analyses are performed on several variations of the transfer
learning procedure. In particular, we observed that the network could
specialize some pre-trained filters to the new image modality and also that
higher layers tend to concentrate classes. Finally, we have shown that a double
fine-tuning involving a medium-size artistic dataset can improve the
classification on smaller datasets, even when the task changes.
- Abstract(参考訳): 膨大な自然画像データセットからの転送学習、ディープニューラルネットワークの微調整、および対応する事前学習ネットワークの使用は、アート分析アプリケーションの中核となっている。
しかし、転帰学習の効果はいまだに理解されていない。
本稿では,まず,ネットワークの内部表現を可視化する手法を用いて,ネットワークが芸術的イメージで学んだことを理解するための手がかりを提供する。
次に、特徴空間とパラメータ空間の両方のメトリクスと、最大アクティベーション画像の集合上で計算されたメトリクスのおかげで、学習プロセスで導入された変化の定量的分析を行う。
これらの分析は、転送学習手順の様々なバリエーションに対して行われる。
特に,ネットワークが事前学習したフィルタを新たなイメージモダリティに特殊化する可能性や,上位層がクラスに集中する傾向が観察された。
最後に、中規模の芸術的データセットを含むダブルチューニングは、タスクが変化しても、より小さなデータセットの分類を改善することができることを示した。
関連論文リスト
- Unleashing the Power of Depth and Pose Estimation Neural Networks by
Designing Compatible Endoscopic Images [12.412060445862842]
内視鏡画像の特性を詳細に解析し、画像とニューラルネットワークの互換性を改善する。
まず,完全な画像情報の代わりに部分的な画像情報を入力するMask Image Modelling (MIM) モジュールを導入する。
第2に、画像とニューラルネットワークの互換性を明確に向上させるために、内視鏡画像を強化する軽量ニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2023-09-14T02:19:38Z) - Is Deep Image Prior in Need of a Good Education? [57.3399060347311]
画像再構成に有効な先行画像として, 奥行き画像が導入された。
その印象的な再建性にもかかわらず、学習技術や伝統的な再建技術と比べてアプローチは遅い。
計算課題に対処する2段階の学習パラダイムを開発する。
論文 参考訳(メタデータ) (2021-11-23T15:08:26Z) - Transferring Knowledge with Attention Distillation for Multi-Domain
Image-to-Image Translation [28.272982411879845]
画像から画像への翻訳作業のための教師-学生パラダイムにおいて、勾配に基づく注意が伝達する知識としてどのように使われるかを示す。
また、教員と学生のネットワークが異なるドメインでトレーニングされている場合、トレーニング中に「疑似意識」が適用可能であることも示している。
論文 参考訳(メタデータ) (2021-08-17T06:47:04Z) - Joint Learning of Neural Transfer and Architecture Adaptation for Image
Recognition [77.95361323613147]
現在の最先端の視覚認識システムは、大規模データセット上でニューラルネットワークを事前トレーニングし、より小さなデータセットでネットワーク重みを微調整することに依存している。
本稿では,各ドメインタスクに適応したネットワークアーキテクチャの動的適応と,効率と効率の両面で重みの微調整の利点を実証する。
本手法は,ソースドメインタスクでスーパーネットトレーニングを自己教師付き学習に置き換え,下流タスクで線形評価を行うことにより,教師なしパラダイムに容易に一般化することができる。
論文 参考訳(メタデータ) (2021-03-31T08:15:17Z) - Learning Visual Representations for Transfer Learning by Suppressing
Texture [38.901410057407766]
自己教師付き学習では、低レベルのキューとしてのテクスチャは、ネットワークがより高いレベルの表現を学習することを防ぐショートカットを提供する。
本稿では,異方性拡散に基づく古典的手法を用いて,テクスチャを抑圧した画像を用いた強化訓練を提案する。
提案手法は,物体検出と画像分類における最先端の成果を実証的に示す。
論文 参考訳(メタデータ) (2020-11-03T18:27:03Z) - Learning Connectivity of Neural Networks from a Topological Perspective [80.35103711638548]
本稿では,ネットワークを解析のための完全なグラフに表現するためのトポロジ的視点を提案する。
接続の規模を反映したエッジに学習可能なパラメータを割り当てることにより、学習プロセスを異なる方法で行うことができる。
この学習プロセスは既存のネットワークと互換性があり、より大きな検索空間と異なるタスクへの適応性を持っている。
論文 参考訳(メタデータ) (2020-08-19T04:53:31Z) - On Robustness and Transferability of Convolutional Neural Networks [147.71743081671508]
現代の深層畳み込みネットワーク(CNN)は、分散シフトの下で一般化しないとしてしばしば批判される。
現代画像分類CNNにおける分布外と転送性能の相互作用を初めて検討した。
トレーニングセットとモデルサイズを増大させることで、分散シフトロバスト性が著しく向上することがわかった。
論文 参考訳(メタデータ) (2020-07-16T18:39:04Z) - Visualizing Transfer Learning [0.0]
転送学習の時間的過程において,深層画像認識ネットワークの個々のニューロンを可視化する。
これらの可視化は、転写学習プロセスの様々な新しい性質を定性的に示す。
論文 参考訳(メタデータ) (2020-07-15T11:34:46Z) - Adversarially-Trained Deep Nets Transfer Better: Illustration on Image
Classification [53.735029033681435]
トランスファーラーニングは、訓練済みのディープニューラルネットワークを画像認識タスクに新しいドメインに適用するための強力な方法論である。
本研究では,非逆学習モデルよりも逆学習モデルの方が優れていることを示す。
論文 参考訳(メタデータ) (2020-07-11T22:48:42Z) - Curriculum By Smoothing [52.08553521577014]
畳み込みニューラルネットワーク(CNN)は、画像分類、検出、セグメンテーションなどのコンピュータビジョンタスクにおいて顕著な性能を示している。
アンチエイリアスフィルタやローパスフィルタを用いてCNNの機能埋め込みを円滑化するエレガントなカリキュラムベースのスキームを提案する。
トレーニング中に特徴マップ内の情報量が増加するにつれて、ネットワークはデータのより優れた表現を徐々に学習することができる。
論文 参考訳(メタデータ) (2020-03-03T07:27:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。