論文の概要: Overcoming Adversarial Attacks for Human-in-the-Loop Applications
- arxiv url: http://arxiv.org/abs/2306.05952v2
- Date: Fri, 25 Aug 2023 15:59:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-28 17:13:03.980990
- Title: Overcoming Adversarial Attacks for Human-in-the-Loop Applications
- Title(参考訳): ヒト・イン・ザ・ループ・アタックの克服
- Authors: Ryan McCoppin, Marla Kennedy, Platon Lukyanenko, Sean Kennedy
- Abstract要約: 人間の分析を含めると、ディープニューラルネットワークの堅牢性に肯定的な影響を与える可能性がある。
ニューラルネットワークの視覚的説明地図は、敵の攻撃に弱いことが示されている。
我々の課題は、HITL評価がこの敵対的な状況でいかに堅牢になるかである。
- 参考スコア(独自算出の注目度): 0.8349536925228057
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Including human analysis has the potential to positively affect the
robustness of Deep Neural Networks and is relatively unexplored in the
Adversarial Machine Learning literature. Neural network visual explanation maps
have been shown to be prone to adversarial attacks. Further research is needed
in order to select robust visualizations of explanations for the image analyst
to evaluate a given model. These factors greatly impact Human-In-The-Loop
(HITL) evaluation tools due to their reliance on adversarial images, including
explanation maps and measurements of robustness. We believe models of human
visual attention may improve interpretability and robustness of human-machine
imagery analysis systems. Our challenge remains, how can HITL evaluation be
robust in this adversarial landscape?
- Abstract(参考訳): 人間の分析を含めると、ディープニューラルネットワークの堅牢性に肯定的な影響を与える可能性があり、Adversarial Machine Learningの文献では比較的研究されていない。
ニューラルネットワークの視覚的説明地図は、敵の攻撃に弱いことが示されている。
画像分析者が与えられたモデルを評価するための説明のロバストな可視化を選択するためには、さらなる研究が必要である。
これらの要因は、説明地図やロバスト性の測定など、逆境画像に依存するため、hitl(human-in-the-loop)評価ツールに大きな影響を与えている。
人間の視覚的注意のモデルは、人間の機械画像解析システムの解釈可能性や堅牢性を向上させることができると考えている。
我々の課題は、HITL評価がこの敵対的な状況でいかに堅牢かである。
関連論文リスト
- Leveraging the Human Ventral Visual Stream to Improve Neural Network Robustness [8.419105840498917]
人間の物体認識は、乱雑でダイナミックな視覚環境において顕著なレジリエンスを示す。
多くの視覚的タスクにまたがるパフォーマンスにもかかわらず、Deep Neural Networks(DNN)は人間よりもはるかに堅牢である。
ここでは,人間の腹側視覚ストリームの階層的な領域から神経表現によって誘導されたDNNが,敵の攻撃に対する堅牢性を高めていることを示す。
論文 参考訳(メタデータ) (2024-05-04T04:33:20Z) - Closely Interactive Human Reconstruction with Proxemics and Physics-Guided Adaption [64.07607726562841]
既存の人間再建アプローチは主に、正確なポーズの回復や侵入を避けることに焦点を当てている。
本研究では,モノクロ映像から密に対話的な人間を再構築する作業に取り組む。
本稿では,視覚情報の欠如を補うために,確率的行動や物理からの知識を活用することを提案する。
論文 参考訳(メタデータ) (2024-04-17T11:55:45Z) - Demonstration of an Adversarial Attack Against a Multimodal Vision Language Model for Pathology Imaging [1.279856000554626]
本研究では,視覚言語基盤モデルであるPLIPモデルの脆弱性を標的攻撃下で調査する。
我々は、意図的に誤分類を誘発するために、PGD(Projected Gradient Descent)の逆方向摂動攻撃を用いる。
この研究は、AIモデルの信頼性を確保するための堅牢な防御の必要性を強調している。
論文 参考訳(メタデータ) (2024-01-04T22:49:15Z) - A Survey on Transferability of Adversarial Examples across Deep Neural Networks [53.04734042366312]
逆の例では、機械学習モデルを操作して誤った予測を行うことができます。
敵の例の転送可能性により、ターゲットモデルの詳細な知識を回避できるブラックボックス攻撃が可能となる。
本研究は, 対角移動可能性の展望を考察した。
論文 参考訳(メタデータ) (2023-10-26T17:45:26Z) - Investigating Human-Identifiable Features Hidden in Adversarial
Perturbations [54.39726653562144]
我々の研究では、最大5つの攻撃アルゴリズムを3つのデータセットにわたって探索する。
対人摂動における人間の識別可能な特徴を同定する。
画素レベルのアノテーションを用いて、そのような特徴を抽出し、ターゲットモデルに妥協する能力を実証する。
論文 参考訳(メタデータ) (2023-09-28T22:31:29Z) - Searching for the Essence of Adversarial Perturbations [73.96215665913797]
本稿では,ニューラルネットワークの誤予測の原因となる,人間の認識可能な情報を含む対人摂動について述べる。
この人間の認識可能な情報の概念は、敵の摂動に関連する重要な特徴を説明できる。
論文 参考訳(メタデータ) (2022-05-30T18:04:57Z) - Characterizing Human Explanation Strategies to Inform the Design of
Explainable AI for Building Damage Assessment [10.447869130396624]
説明可能なAI(XAI)は、高度な視覚的検出タスクのための人間とAIのコラボレーションをサポートするための有望な手段である。
衛星画像に基づく建物被害の深刻度を評価する際に, 利用者の自己評価の方法を理解するために, クラウドソーシングによるオンライン調査を行った。
60人のクラウドワーカーによる調査を通じて、人間の視覚的損傷評価を説明するために活用される6つの主要な戦略を明らかにした。
論文 参考訳(メタデータ) (2021-11-04T04:53:57Z) - Interactive Analysis of CNN Robustness [11.136837582678869]
Perturberはウェブベースのアプリケーションで、3D入力シーンがインタラクティブに摂動した場合、CNNのアクティベーションと予測がどのように進化するかをユーザが調査することができる。
パーターバーは、カメラコントロール、照明とシェーディング効果、背景の修正、物体の変形、敵の攻撃など、様々なシーン修正を提供している。
機械学習の専門家によるケーススタディによると、Perturberはモデルの脆弱性に関する仮説を素早く生成し、モデルの振る舞いを質的に比較するのに役立つ。
論文 参考訳(メタデータ) (2021-10-14T18:52:39Z) - Explainable Adversarial Attacks in Deep Neural Networks Using Activation
Profiles [69.9674326582747]
本稿では,敵対的事例に基づくニューラルネットワークモデルを検討するためのビジュアルフレームワークを提案する。
これらの要素を観察することで、モデル内の悪用領域を素早く特定できることを示す。
論文 参考訳(メタデータ) (2021-03-18T13:04:21Z) - Proactive Pseudo-Intervention: Causally Informed Contrastive Learning
For Interpretable Vision Models [103.64435911083432]
PPI(Proactive Pseudo-Intervention)と呼ばれる新しい対照的な学習戦略を提案する。
PPIは、因果関係のない画像の特徴を保護するために積極的に介入する。
また,重要な画像画素を識別するための,因果的に通知された新たなサリエンスマッピングモジュールを考案し,モデル解釈の容易性を示す。
論文 参考訳(メタデータ) (2020-12-06T20:30:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。