論文の概要: Towards Evaluating Gaussian Blurring in Perceptual Hashing as a Facial
Image Filter
- arxiv url: http://arxiv.org/abs/2002.00140v2
- Date: Sun, 20 Sep 2020 22:00:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-05 01:06:27.211737
- Title: Towards Evaluating Gaussian Blurring in Perceptual Hashing as a Facial
Image Filter
- Title(参考訳): 顔画像フィルタとしての知覚ハッシュにおけるガウスのぼやけの評価
- Authors: Yigit Alparslan, Ken Alparslan, Mannika Kshettry, Louis Kratz
- Abstract要約: 知覚ハッシュは、2つの画像が同一であるかどうかを検出するためにしばしば用いられる。
本稿では,顔画像に特有な個人画像の誤用を検出するために,知覚的ハッシュにおけるガウス的ぼかしの効果を実験的に検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: With the growth in social media, there is a huge amount of images of faces
available on the internet. Often, people use other people's pictures on their
own profile. Perceptual hashing is often used to detect whether two images are
identical. Therefore, it can be used to detect whether people are misusing
others' pictures. In perceptual hashing, a hash is calculated for a given
image, and a new test image is mapped to one of the existing hashes if
duplicate features are present. Therefore, it can be used as an image filter to
flag banned image content or adversarial attacks --which are modifications that
are made on purpose to deceive the filter-- even though the content might be
changed to deceive the filters. For this reason, it is critical for perceptual
hashing to be robust enough to take transformations such as resizing, cropping,
and slight pixel modifications into account. In this paper, we would like to
propose to experiment with effect of gaussian blurring in perceptual hashing
for detecting misuse of personal images specifically for face images. We
hypothesize that use of gaussian blurring on the image before calculating its
hash will increase the accuracy of our filter that detects adversarial attacks
which consist of image cropping, adding text annotation, and image rotation.
- Abstract(参考訳): ソーシャルメディアの成長に伴い、インターネット上には膨大な数の顔画像が公開されている。
人は自分のプロフィールで他人の写真を使うことが多い。
知覚ハッシュは、2つの画像が同一であるかどうかを検出するためにしばしば用いられる。
そのため、他人の絵を誤用しているかどうかを検知することができる。
知覚ハッシュでは、所定の画像に対してハッシュが計算され、重複した特徴がある場合、既存のハッシュのいずれかに新しいテスト画像がマッピングされる。
したがって、禁止された画像コンテンツや、フィルターをだますためにコンテンツを変更しても、フィルターを欺くために行われる修正である敵攻撃をフラグする画像フィルターとして使用できる。
このため、知覚的ハッシュはリサイズ、クロッピング、わずかなピクセル修正などの変換を考慮に入れるのに十分な堅牢性を持つことが重要である。
本稿では,顔画像に特有な個人画像の誤用を検出するために,知覚ハッシュにおけるガウス的ぼかしの効果を実験的に検討する。
我々は,画像へのガウス的ぼかしの使用により,画像のトリミング,テキストアノテーションの追加,画像回転などの敵攻撃を検出するフィルタの精度が向上すると仮定する。
関連論文リスト
- DIAGNOSIS: Detecting Unauthorized Data Usages in Text-to-image Diffusion Models [79.71665540122498]
保護されたデータセットにインジェクトされたコンテンツを配置することで、不正なデータ利用を検出する手法を提案する。
具体的には、ステルス画像ワープ機能を用いて、これらの画像にユニークな内容を追加することにより、保護された画像を修正する。
このモデルが注入されたコンテンツを記憶したかどうかを解析することにより、不正に不正に使用したモデルを検出することができる。
論文 参考訳(メタデータ) (2023-07-06T16:27:39Z) - Human-imperceptible, Machine-recognizable Images [76.01951148048603]
より良い開発AIシステムと、センシティブなトレーニングデータから距離を置くことの間の、ソフトウェアエンジニアに関する大きな対立が露呈している。
画像が暗号化され、人間に認識され、機械に認識される」という、効率的なプライバシー保護学習パラダイムを提案する。
提案手法は,機械が認識可能な情報を保存しながら,暗号化された画像が人間に認識されなくなることを保証できることを示す。
論文 参考訳(メタデータ) (2023-06-06T13:41:37Z) - LFW-Beautified: A Dataset of Face Images with Beautification and
Augmented Reality Filters [53.180678723280145]
いくつかの操作を含む顔画像のデータベースにコントリビュートする。
画像強調フィルター(コントラストや稲妻を主に修正する)や、動物の鼻や眼鏡などのアイテムを組み込んだ拡張現実フィルターが含まれている。
各データセットには、64×64の4,324枚の画像があり、合計34,592枚の画像がある。
論文 参考訳(メタデータ) (2022-03-11T17:05:10Z) - Self-Distilled Hashing for Deep Image Retrieval [25.645550298697938]
ハッシュベースの画像検索システムでは、元の入力から変換された入力は通常、異なるコードを生成する。
本稿では,拡張データの可能性を活用しつつ,相違を最小限に抑えるために,自己蒸留ハッシュ方式を提案する。
また、ハッシュプロキシに基づく類似性学習や、バイナリクロスエントロピーに基づく量子化損失を導入し、高品質なハッシュコードを提供する。
論文 参考訳(メタデータ) (2021-12-16T12:01:50Z) - Learning to Break Deep Perceptual Hashing: The Use Case NeuralHash [29.722113621868978]
Appleは最近、子供の性的虐待物質を検出するための深い知覚的ハッシュシステムNeuralHashを発表した。
ユーザのプライバシとシステムの信頼性の保護について、大衆の批判が持ち上がった。
現在の深い知覚的ハッシュは、堅牢でない可能性がある。
論文 参考訳(メタデータ) (2021-11-12T09:49:27Z) - On the Effect of Selfie Beautification Filters on Face Detection and
Recognition [53.561797148529664]
ソーシャルメディア画像フィルターは、例えば人工眼鏡や動物の鼻で、画像コントラスト、照明、あるいは顔の一部を妨げる。
U-NETセグメンテーションネットワークの修正版を用いて適用操作を再構築する手法を開発した。
認識の観点からは、顔を認識するために訓練されたResNet-34ネットワークを用いて抽出された特徴に対して、距離測定と訓練された機械学習アルゴリズムを用いる。
論文 参考訳(メタデータ) (2021-10-17T22:10:56Z) - A Study of Face Obfuscation in ImageNet [94.2949777826947]
本稿では,imagenetチャレンジにおける画像難読化について検討する。
ImageNetチャレンジのほとんどのカテゴリは、人のカテゴリではありません。
さまざまな深層ニューラルネットワークを顔画像上でベンチマークし、異なるカテゴリに対する異なる影響を観察します。
結果は、顔が破れた画像で学んだ特徴が等しく転送可能であることを示している。
論文 参考訳(メタデータ) (2021-03-10T17:11:34Z) - Adversarial collision attacks on image hashing functions [9.391375268580806]
画像を修正して無関係なハッシュを生成することができ、極小摂動によって正確なハッシュ衝突を発生させることができることを示す。
白いボックス設定では、これらの衝突は、ほぼすべてのイメージペアとハッシュタイプに複製できる。
勾配に基づく画像ハッシュ攻撃に対する潜在的な軽減策をいくつか提案する。
論文 参考訳(メタデータ) (2020-11-18T18:59:02Z) - A Deeper Look into Hybrid Images [0.0]
最初のハイブリッド画像の導入により、2つの画像をハイパスフィルタとローパスフィルタと組み合わせることで、ブレンドされた画像を遠くから見ると、ハイパスフィルタが消え、ローパスフィルタが顕著になることを示す。
我々の主な目的は、特定のパラメータを変更して、それらが生成したブレンド画像の品質にどのように影響するかを確認することで、元の論文を研究・レビューすることである。
論文 参考訳(メタデータ) (2020-01-30T13:25:14Z) - Recognizing Instagram Filtered Images with Feature De-stylization [81.38905784617089]
本稿では,Instagramのフィルターによって,事前学習モデルがどのような影響を受けているかについて検討する。
画像のグローバルな外観を変えるだけの単純な構造保存フィルタは、畳み込み特徴空間に大きな違いをもたらす可能性が示唆された。
我々は,特徴マップのスケーリングとシフトに使用されるパラメータを予測し,フィルタによって引き起こされる変化を“無視”する,軽量なデスティル化モジュールを導入する。
論文 参考訳(メタデータ) (2019-12-30T16:48:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。