論文の概要: Adversarial Attacks Assessment of Salient Object Detection via Symbolic
Learning
- arxiv url: http://arxiv.org/abs/2309.05900v1
- Date: Tue, 12 Sep 2023 01:03:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-13 14:53:02.949193
- Title: Adversarial Attacks Assessment of Salient Object Detection via Symbolic
Learning
- Title(参考訳): シンボリック・ラーニングによるsalient object detectionのadversarial attack評価
- Authors: Gustavo Olague, Roberto Pineda, Gerardo Ibarra-Vazquez, Matthieu
Olague, Axel Martinez, Sambit Bakshi, Jonathan Vargas and Isnardo Reducindo
- Abstract要約: 脳プログラミングは、優れた古き良き人工知能の分野における象徴的な学習である。
この研究は、信頼できる視覚的注意システムの設計において、記号的学習の堅牢性が不可欠であることを示す。
我々は,この手法を5つの異なるディープラーニングアプローチと比較し,ロバスト性に関する象徴的パラダイムと一致しないことを示した。
- 参考スコア(独自算出の注目度): 4.613806493425003
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Machine learning is at the center of mainstream technology and outperforms
classical approaches to handcrafted feature design. Aside from its learning
process for artificial feature extraction, it has an end-to-end paradigm from
input to output, reaching outstandingly accurate results. However, security
concerns about its robustness to malicious and imperceptible perturbations have
drawn attention since its prediction can be changed entirely. Salient object
detection is a research area where deep convolutional neural networks have
proven effective but whose trustworthiness represents a significant issue
requiring analysis and solutions to hackers' attacks. Brain programming is a
kind of symbolic learning in the vein of good old-fashioned artificial
intelligence. This work provides evidence that symbolic learning robustness is
crucial in designing reliable visual attention systems since it can withstand
even the most intense perturbations. We test this evolutionary computation
methodology against several adversarial attacks and noise perturbations using
standard databases and a real-world problem of a shorebird called the Snowy
Plover portraying a visual attention task. We compare our methodology with five
different deep learning approaches, proving that they do not match the symbolic
paradigm regarding robustness. All neural networks suffer significant
performance losses, while brain programming stands its ground and remains
unaffected. Also, by studying the Snowy Plover, we remark on the importance of
security in surveillance activities regarding wildlife protection and
conservation.
- Abstract(参考訳): 機械学習は主流技術の中心であり、手作りの機能設計に対する古典的なアプローチよりも優れています。
人工的特徴抽出の学習プロセスとは別に、入力から出力までのエンドツーエンドパラダイムを持ち、極めて正確な結果が得られる。
しかし、悪質で不可避な摂動に対する堅牢性に対するセキュリティ上の懸念は、その予測を完全に変更できるため注目されている。
salient object detectionは、深い畳み込みニューラルネットワークが効果的であることが証明されているが、その信頼性はハッカーの攻撃に対する分析と解決策を必要とする重要な問題である。
脳プログラミングは、古き良き人工知能の分野における象徴的な学習である。
この研究は、最も激しい摂動にも耐えうるため、信頼できる視覚的注意システムの設計において、象徴的な学習の堅牢性が不可欠であることを示す。
我々は,この進化的計算手法を,標準的なデータベースとSnowy Ploverと呼ばれる海岸鳥の現実問題を用いて,視覚的注意課題を表現したいくつかの敵攻撃とノイズ摂動に対して検証した。
提案手法を5つの異なるディープラーニングアプローチと比較し,ロバスト性に関する象徴的パラダイムと一致しないことを示す。
すべてのニューラルネットワークは大きなパフォーマンス損失を被るが、脳プログラミングはその基盤であり、影響を受けない。
また,Snowy Ploverの研究により,野生生物保護・保全に関する監視活動におけるセキュリティの重要性について述べる。
関連論文リスト
- Simple and Effective Transfer Learning for Neuro-Symbolic Integration [50.592338727912946]
この問題の潜在的な解決策はNeuro-Symbolic Integration (NeSy)であり、ニューラルアプローチとシンボリック推論を組み合わせる。
これらの手法のほとんどは、認識をシンボルにマッピングするニューラルネットワークと、下流タスクの出力を予測する論理的論理的推論を利用する。
それらは、緩やかな収束、複雑な知覚タスクの学習困難、局所的なミニマへの収束など、いくつかの問題に悩まされている。
本稿では,これらの問題を改善するための簡易かつ効果的な方法を提案する。
論文 参考訳(メタデータ) (2024-02-21T15:51:01Z) - A Survey on Transferability of Adversarial Examples across Deep Neural Networks [53.04734042366312]
逆の例では、機械学習モデルを操作して誤った予測を行うことができます。
敵の例の転送可能性により、ターゲットモデルの詳細な知識を回避できるブラックボックス攻撃が可能となる。
本研究は, 対角移動可能性の展望を考察した。
論文 参考訳(メタデータ) (2023-10-26T17:45:26Z) - Investigating Human-Identifiable Features Hidden in Adversarial
Perturbations [54.39726653562144]
我々の研究では、最大5つの攻撃アルゴリズムを3つのデータセットにわたって探索する。
対人摂動における人間の識別可能な特徴を同定する。
画素レベルのアノテーションを用いて、そのような特徴を抽出し、ターゲットモデルに妥協する能力を実証する。
論文 参考訳(メタデータ) (2023-09-28T22:31:29Z) - A reading survey on adversarial machine learning: Adversarial attacks
and their understanding [6.1678491628787455]
Adversarial Machine Learningは、ニューラルネットワークがほぼオリジナルの入力を誤って分類する原因となる脆弱性を悪用し、理解する。
敵攻撃と呼ばれるアルゴリズムのクラスが提案され、ニューラルネットワークが異なるドメインの様々なタスクを誤って分類する。
本稿は、既存の敵攻撃とその理解について、異なる視点で調査する。
論文 参考訳(メタデータ) (2023-08-07T07:37:26Z) - Mitigating Adversarial Attacks in Deepfake Detection: An Exploration of
Perturbation and AI Techniques [1.0718756132502771]
敵の例は微妙な摂動で きれいな画像やビデオに 巧みに注入される
ディープフェイクは世論を操り、世論の評判を損なう強力なツールとして登場した。
この記事では、多面的な敵の例の世界を掘り下げ、ディープラーニングアルゴリズムを騙す能力の背後にある原則を解明する。
論文 参考訳(メタデータ) (2023-02-22T23:48:19Z) - Searching for the Essence of Adversarial Perturbations [73.96215665913797]
本稿では,ニューラルネットワークの誤予測の原因となる,人間の認識可能な情報を含む対人摂動について述べる。
この人間の認識可能な情報の概念は、敵の摂動に関連する重要な特徴を説明できる。
論文 参考訳(メタデータ) (2022-05-30T18:04:57Z) - Optimism in the Face of Adversity: Understanding and Improving Deep
Learning through Adversarial Robustness [63.627760598441796]
深層学習における対角的強靭性の分野を詳細に検討する。
直感的な対向例と深層ニューラルネットワークの幾何学的関係を強調した。
セキュリティを超えた敵の堅牢性の主な応用について概説する。
論文 参考訳(メタデータ) (2020-10-19T16:03:46Z) - A Deep Genetic Programming based Methodology for Art Media
Classification Robust to Adversarial Perturbations [1.6148039130053087]
美術メディア分類問題(Art Media Classification problem)は,高価値美術品の特徴の複雑な抽出と分析によって注目されている研究分野である。
その信頼性に関する主な懸念は、入力画像(敵攻撃)に意図的に小さな摂動がある場合、その予測を完全に変更できるためである。
この研究は、深層学習と競合する深層遺伝プログラミング(Brain Programming)と呼ばれる方法を提示している。
論文 参考訳(メタデータ) (2020-10-03T00:36:34Z) - Adversarial vs behavioural-based defensive AI with joint, continual and
active learning: automated evaluation of robustness to deception, poisoning
and concept drift [62.997667081978825]
人工知能(AI)の最近の進歩は、サイバーセキュリティのための行動分析(UEBA)に新たな能力をもたらした。
本稿では、検出プロセスを改善し、人間の専門知識を効果的に活用することにより、この攻撃を効果的に軽減するソリューションを提案する。
論文 参考訳(メタデータ) (2020-01-13T13:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。