論文の概要: Mark My Words: Dangers of Watermarked Images in ImageNet
- arxiv url: http://arxiv.org/abs/2303.05498v1
- Date: Thu, 9 Mar 2023 18:51:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-10 13:39:27.041667
- Title: Mark My Words: Dangers of Watermarked Images in ImageNet
- Title(参考訳): Mark My Words: ImageNetのウォーターマーク画像の危険性
- Authors: Kirill Bykov, Klaus-Robert M\"uller, Marina M.-C. H\"ohne
- Abstract要約: ImageNetデータセットのかなりの数のイメージには、透かしが含まれている。
モニタ"、"ほうき"、"apron"、"safe"など、さまざまなImageNetクラスは、素早い相関に頼っている。
細調整ネットワークにおけるこの問題を軽減するための簡単なアプローチを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The utilization of pre-trained networks, especially those trained on
ImageNet, has become a common practice in Computer Vision. However, prior
research has indicated that a significant number of images in the ImageNet
dataset contain watermarks, making pre-trained networks susceptible to learning
artifacts such as watermark patterns within their latent spaces. In this paper,
we aim to assess the extent to which popular pre-trained architectures display
such behavior and to determine which classes are most affected. Additionally,
we examine the impact of watermarks on the extracted features. Contrary to the
popular belief that the Chinese logographic watermarks impact the "carton"
class only, our analysis reveals that a variety of ImageNet classes, such as
"monitor", "broom", "apron" and "safe" rely on spurious correlations. Finally,
we propose a simple approach to mitigate this issue in fine-tuned networks by
ignoring the encodings from the feature-extractor layer of ImageNet pre-trained
networks that are most susceptible to watermark imprints.
- Abstract(参考訳): トレーニング済みネットワーク、特にImageNetでトレーニングされたネットワークの利用は、コンピュータビジョンにおいて一般的な実践となっている。
しかし、以前の研究では、ImageNetデータセットのかなりの数の画像が透かしを含んでいることが示されており、トレーニング済みのネットワークは潜伏空間内の透かしパターンなどのアーティファクトの学習に影響を受けやすい。
本稿では,一般的な事前学習済みアーキテクチャがどのような振る舞いを示すかを評価し,どのクラスが最も影響を受けるかを決定することを目的とする。
さらに,抽出された特徴に対する透かしの影響について検討する。
中国式電子透かしが「カートン」クラスのみに影響を与えるという通説とは対照的に、「監視」、「法廷」、「アプロン」、「安全」といった様々なイメージネットクラスが散発的な相関に依存していることを分析により明らかにしている。
最後に,インプリントに最も敏感なImageNet事前学習ネットワークの特徴抽出層からの符号化を無視することで,微調整ネットワークにおけるこの問題を軽減するための簡単なアプローチを提案する。
関連論文リスト
- Npix2Cpix: A GAN-Based Image-to-Image Translation Network With Retrieval- Classification Integration for Watermark Retrieval From Historical Document Images [1.3549498237473223]
古代の透かしの識別と復元は、長い間、コーディコロジーと歴史の主要なトピックであった。
本稿では,Npix2Cpixと命名されたU-netベースの条件付き逆数生成ネットワーク(GAN)を改良し,ノイズの多い歴史的透かし画像からクリーンで手書きのない透かし画像に変換する手法を提案する。
論文 参考訳(メタデータ) (2024-06-05T18:10:49Z) - A self-supervised CNN for image watermark removal [102.94929746450902]
画像透かし除去(SWCNN)における自己教師型畳み込みニューラルネットワーク(CNN)を提案する。
SWCNNは、透かし分布に従って、ペアのトレーニングサンプルではなく、基準透かし画像を構築するために、自己教師付き方式を使用している。
テクスチャ情報を考慮すると、画像透かし除去の視覚効果を改善するために混合損失を利用する。
論文 参考訳(メタデータ) (2024-03-09T05:59:48Z) - Perceptive self-supervised learning network for noisy image watermark
removal [59.440951785128995]
雑音の多い画像透かし除去のための知覚的自己教師型学習ネットワーク(PSLNet)を提案する。
提案手法は,雑音の多い画像透かし除去のための一般的な畳み込みニューラルネットワーク(CNN)と比較して非常に効果的である。
論文 参考訳(メタデータ) (2024-03-04T16:59:43Z) - Docmarking: Real-Time Screen-Cam Robust Document Image Watermarking [97.77394585669562]
提案されたアプローチは、そもそもリークを防ぐのではなく、リークのソースを決定することを目的としている。
メソッドは、透かしを半透明画像と識別するユニークな透かしをスクリーンに印加することで機能する。
透かし画像は静止しており、常に画面上に留まっているので、撮影したすべての写真に透かしが表示される。
論文 参考訳(メタデータ) (2023-04-25T09:32:11Z) - Semantic-Aware Generation for Self-Supervised Visual Representation
Learning [116.5814634936371]
セマンティック・アウェア・ジェネレーション(SaGe)は、生成した画像に保存される詳細よりも、よりリッチなセマンティクスを促進する。
SaGeは、ターゲットネットワークをビュー特有の特徴で補完することで、集中的なデータ拡張によって引き起こされるセマンティックな劣化を軽減する。
我々は、ImageNet-1K上でSaGeを実行し、近接検定、線形分類、微視的画像認識を含む5つの下流タスクで事前訓練されたモデルを評価する。
論文 参考訳(メタデータ) (2021-11-25T16:46:13Z) - Robust Watermarking using Diffusion of Logo into Autoencoder Feature
Maps [10.072876983072113]
本稿では,透かしのためのエンドツーエンドネットワークを提案する。
画像の内容に基づいて,畳み込みニューラルネットワーク(CNN)を用いて埋め込み強度を制御する。
異なる画像処理攻撃は、モデルの堅牢性を改善するためにネットワーク層としてシミュレートされる。
論文 参考訳(メタデータ) (2021-05-24T05:18:33Z) - Split then Refine: Stacked Attention-guided ResUNets for Blind Single
Image Visible Watermark Removal [69.92767260794628]
従来の透かし除去方法は,ユーザから透かしの位置を取得したり,マルチタスクネットワークをトレーニングして,背景を無差別に復元する必要があった。
本稿では,注目誘導型ResUNetsを積み重ねた新しい2段階フレームワークを提案し,検出・除去・精錬の過程をシミュレートする。
様々な条件下で4つの異なるデータセット上でアルゴリズムを広範囲に評価し,その手法が他の最先端手法をはるかに上回っていることを示す実験を行った。
論文 参考訳(メタデータ) (2020-12-13T09:05:37Z) - VirTex: Learning Visual Representations from Textual Annotations [25.104705278771895]
VirTexは、意味的に密接なキャプションを使用して視覚表現を学習する事前学習のアプローチである。
我々はCOCOキャプションのスクラッチから畳み込みネットワークを訓練し、それらを下流認識タスクに転送する。
すべてのタスクにおいて、VirTexはImageNetで学んだもの(教師なしまたは教師なし)と一致するか、あるいは超える機能を提供します。
論文 参考訳(メタデータ) (2020-06-11T17:58:48Z) - Focus Longer to See Better:Recursively Refined Attention for
Fine-Grained Image Classification [148.4492675737644]
Deep Neural Networkは、粗い粒度の画像分類タスクにおいて大きな進歩を見せている。
本稿では,これらの限界差に着目して,より代表的な特徴を抽出する。
我々のネットワークは、画像の一部に繰り返し焦点を合わせ、クラス間の小さな識別的部分を見つける。
論文 参考訳(メタデータ) (2020-05-22T03:14:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。