論文の概要: A Deep Genetic Programming based Methodology for Art Media
Classification Robust to Adversarial Perturbations
- arxiv url: http://arxiv.org/abs/2010.01238v1
- Date: Sat, 3 Oct 2020 00:36:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-11 11:38:28.363125
- Title: A Deep Genetic Programming based Methodology for Art Media
Classification Robust to Adversarial Perturbations
- Title(参考訳): 対立摂動に頑健なアートメディア分類のための深層遺伝的プログラミング手法
- Authors: Gustavo Olague and Gerardo Ibarra-Vazquez and Mariana Chan-Ley and
Cesar Puente and Carlos Soubervielle-Montalvo and Axel Martinez
- Abstract要約: 美術メディア分類問題(Art Media Classification problem)は,高価値美術品の特徴の複雑な抽出と分析によって注目されている研究分野である。
その信頼性に関する主な懸念は、入力画像(敵攻撃)に意図的に小さな摂動がある場合、その予測を完全に変更できるためである。
この研究は、深層学習と競合する深層遺伝プログラミング(Brain Programming)と呼ばれる方法を提示している。
- 参考スコア(独自算出の注目度): 1.6148039130053087
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Art Media Classification problem is a current research area that has
attracted attention due to the complex extraction and analysis of features of
high-value art pieces. The perception of the attributes can not be subjective,
as humans sometimes follow a biased interpretation of artworks while ensuring
automated observation's trustworthiness. Machine Learning has outperformed many
areas through its learning process of artificial feature extraction from images
instead of designing handcrafted feature detectors. However, a major concern
related to its reliability has brought attention because, with small
perturbations made intentionally in the input image (adversarial attack), its
prediction can be completely changed. In this manner, we foresee two ways of
approaching the situation: (1) solve the problem of adversarial attacks in
current neural networks methodologies, or (2) propose a different approach that
can challenge deep learning without the effects of adversarial attacks. The
first one has not been solved yet, and adversarial attacks have become even
more complex to defend. Therefore, this work presents a Deep Genetic
Programming method, called Brain Programming, that competes with deep learning
and studies the transferability of adversarial attacks using two artworks
databases made by art experts. The results show that the Brain Programming
method preserves its performance in comparison with AlexNet, making it robust
to these perturbations and competing to the performance of Deep Learning.
- Abstract(参考訳): 美術メディア分類問題(Art Media Classification problem)は,高価値美術品の特徴の複雑な抽出と分析によって注目されている研究分野である。
人間は自動的な観察の信頼性を確保しながら、アートワークのバイアスのある解釈に従うことがあるため、属性の認識は主観的ではない。
機械学習は、手作りの特徴検出器を設計する代わりに、画像から人工的特徴抽出の学習プロセスを通じて、多くの領域で性能を上げた。
しかし、入力画像(敵攻撃)に意図的に小さな摂動がある場合、その予測は完全に変更できるため、信頼性に関する大きな懸念が注目されている。
この方法では,(1)現在のニューラルネットワーク手法における敵対的攻撃の問題を解決するか,(2)敵対的攻撃の影響を伴わずに深層学習に挑戦できる別のアプローチを提案する。
最初の攻撃はまだ解決されておらず、敵の攻撃はさらに複雑になっている。
そのため、この研究は、深層学習と競合する深層遺伝プログラミング(Brain Programming)と呼ばれる手法を提示し、アート専門家が作成した2つのアートデータベースを用いて、敵対的攻撃の伝達可能性を研究する。
その結果,Brain Programming法はAlexNetと比較して性能を保ち,これらの摂動に頑健であり,Deep Learningのパフォーマンスと競合することを示す。
関連論文リスト
- The Anatomy of Adversarial Attacks: Concept-based XAI Dissection [1.2916188356754918]
XAI技術を用いた畳み込みニューラルネットワーク(CNN)で学習した概念に対するAAの影響について検討する。
AAsは機能空間における概念構成の大幅な変更を誘発し、新しい概念を導入したり、既存の概念を変更したりする。
我々の発見は、より堅牢で解釈可能なディープラーニングモデルを開発するための道を開いた。
論文 参考訳(メタデータ) (2024-03-25T13:57:45Z) - A Survey on Transferability of Adversarial Examples across Deep Neural Networks [53.04734042366312]
逆の例では、機械学習モデルを操作して誤った予測を行うことができます。
敵の例の転送可能性により、ターゲットモデルの詳細な知識を回避できるブラックボックス攻撃が可能となる。
本研究は, 対角移動可能性の展望を考察した。
論文 参考訳(メタデータ) (2023-10-26T17:45:26Z) - Investigating Human-Identifiable Features Hidden in Adversarial
Perturbations [54.39726653562144]
我々の研究では、最大5つの攻撃アルゴリズムを3つのデータセットにわたって探索する。
対人摂動における人間の識別可能な特徴を同定する。
画素レベルのアノテーションを用いて、そのような特徴を抽出し、ターゲットモデルに妥協する能力を実証する。
論文 参考訳(メタデータ) (2023-09-28T22:31:29Z) - Adversarial Attacks Assessment of Salient Object Detection via Symbolic
Learning [4.613806493425003]
脳プログラミングは、優れた古き良き人工知能の分野における象徴的な学習である。
この研究は、信頼できる視覚的注意システムの設計において、記号的学習の堅牢性が不可欠であることを示す。
我々は,この手法を5つの異なるディープラーニングアプローチと比較し,ロバスト性に関する象徴的パラダイムと一致しないことを示した。
論文 参考訳(メタデータ) (2023-09-12T01:03:43Z) - Mitigating Adversarial Attacks in Deepfake Detection: An Exploration of
Perturbation and AI Techniques [1.0718756132502771]
敵の例は微妙な摂動で きれいな画像やビデオに 巧みに注入される
ディープフェイクは世論を操り、世論の評判を損なう強力なツールとして登場した。
この記事では、多面的な敵の例の世界を掘り下げ、ディープラーニングアルゴリズムを騙す能力の背後にある原則を解明する。
論文 参考訳(メタデータ) (2023-02-22T23:48:19Z) - Searching for the Essence of Adversarial Perturbations [73.96215665913797]
本稿では,ニューラルネットワークの誤予測の原因となる,人間の認識可能な情報を含む対人摂動について述べる。
この人間の認識可能な情報の概念は、敵の摂動に関連する重要な特徴を説明できる。
論文 参考訳(メタデータ) (2022-05-30T18:04:57Z) - Automated Design of Salient Object Detection Algorithms with Brain
Programming [3.518016233072556]
本研究は, 突発性物体検出問題の解決を目的とした最近の提案を用いて, 人工背側流の拡大を提案する。
そこで我々は,画像分割アルゴリズムと視覚塩分率の融合をテンプレートとして適用することにした。
本稿では,最先端技術との比較において,専門家が設計したベンチマークの結果について述べる。
論文 参考訳(メタデータ) (2022-04-07T20:21:30Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - Affect Analysis in-the-wild: Valence-Arousal, Expressions, Action Units
and a Unified Framework [83.21732533130846]
Aff-Wild と Aff-Wild2 の2つである。
これは、これらのデータベースで訓練された深層ニューラルネットワークの2つのクラスの設計を示す。
インパクト認識を共同で学び、効果的に一般化し、実行することができる新しいマルチタスクおよび全体主義のフレームワークが提示されます。
論文 参考訳(メタデータ) (2021-03-29T17:36:20Z) - Vulnerability Under Adversarial Machine Learning: Bias or Variance? [77.30759061082085]
本研究では,機械学習が訓練された深層ニューラルネットワークのバイアスと分散に与える影響について検討する。
我々の分析は、ディープニューラルネットワークが対向的摂動下で性能が劣っている理由に光を当てている。
本稿では,計算処理の複雑さをよく知られた機械学習手法よりも低く抑えた,新しい逆機械学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-08-01T00:58:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。