論文の概要: Toward Explainable Users: Using NLP to Enable AI to Understand Users'
Perceptions of Cyber Attacks
- arxiv url: http://arxiv.org/abs/2106.01998v1
- Date: Thu, 3 Jun 2021 17:17:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-04 17:28:15.023995
- Title: Toward Explainable Users: Using NLP to Enable AI to Understand Users'
Perceptions of Cyber Attacks
- Title(参考訳): 説明可能なユーザに向けて: NLPを使ってAIを使ってサイバー攻撃に対するユーザの認識を理解する
- Authors: Faranak Abri, Luis Felipe Gutierrez, Chaitra T. Kulkarni, Akbar Siami
Namin, Keith S. Jones
- Abstract要約: 本論文は,ユーザの行動とコンテキストに対する認識の説明とモデル化にAI技術を用いた最初の事例である。
我々の知る限り、この論文は、ユーザーの行動とコンテキストに対する認識の説明とモデル化にAI技術を使用した最初の事例である。
- 参考スコア(独自算出の注目度): 2.099922236065961
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: To understand how end-users conceptualize consequences of cyber security
attacks, we performed a card sorting study, a well-known technique in Cognitive
Sciences, where participants were free to group the given consequences of
chosen cyber attacks into as many categories as they wished using rationales
they see fit. The results of the open card sorting study showed a large amount
of inter-participant variation making the research team wonder how the
consequences of security attacks were comprehended by the participants. As an
exploration of whether it is possible to explain user's mental model and
behavior through Artificial Intelligence (AI) techniques, the research team
compared the card sorting data with the outputs of a number of Natural Language
Processing (NLP) techniques with the goal of understanding how participants
perceived and interpreted the consequences of cyber attacks written in natural
languages. The results of the NLP-based exploration methods revealed an
interesting observation implying that participants had mostly employed checking
individual keywords in each sentence to group cyber attack consequences
together and less considered the semantics behind the description of
consequences of cyber attacks. The results reported in this paper are seemingly
useful and important for cyber attacks comprehension from user's perspectives.
To the best of our knowledge, this paper is the first introducing the use of AI
techniques in explaining and modeling users' behavior and their perceptions
about a context. The novel idea introduced here is about explaining users using
AI.
- Abstract(参考訳): サイバーセキュリティ攻撃の結果をエンドユーザーがどのように概念化するかを理解するため、我々はCognitive Sciencesでよく知られたカードソート研究を行い、参加者は選択したサイバー攻撃の結果を、相応しい合理性を使って望む多くのカテゴリにまとめることができた。
オープンカードソート調査の結果,参加者間のばらつきは多大であり,研究チームは,セキュリティ攻撃の結果が参加者によってどのように理解されたのか疑問視した。
人工知能(AI)技術を用いてユーザーのメンタルモデルと行動を説明することが可能かどうかを調査するため、研究チームは、カードソートデータを複数の自然言語処理(NLP)技術の出力と比較し、参加者が自然言語で書かれたサイバー攻撃の結果をどのように認識し解釈するかを理解することを目標とした。
NLPに基づく探索手法の結果は、参加者が各文中の個々のキーワードをチェックしてサイバー攻撃の結果をグループ化し、サイバー攻撃の結果の説明の背後にある意味を考慮していなかったことを示唆する興味深い観察結果となった。
本報告の結果は,ユーザの視点からのサイバー攻撃の理解に有用かつ重要であると考えられる。
我々の知る限り、この論文は、ユーザーの行動とコンテキストに対する認識の説明とモデル化にAI技術を使用した最初の事例である。
ここで導入された新しいアイデアは、AIを使ってユーザーを説明することだ。
関連論文リスト
- Investigating Human-Identifiable Features Hidden in Adversarial
Perturbations [54.39726653562144]
我々の研究では、最大5つの攻撃アルゴリズムを3つのデータセットにわたって探索する。
対人摂動における人間の識別可能な特徴を同定する。
画素レベルのアノテーションを用いて、そのような特徴を抽出し、ターゲットモデルに妥協する能力を実証する。
論文 参考訳(メタデータ) (2023-09-28T22:31:29Z) - Evaluating the Vulnerabilities in ML systems in terms of adversarial
attacks [0.0]
新たな敵攻撃手法は、現在のディープラーニングサイバー防衛システムに課題をもたらす可能性がある。
著者はAIシステムにおける脆弱性の結果を探求する。
テストフェーズにあるAIシステムを適切にトレーニングし、より広範な使用に備えることが重要です。
論文 参考訳(メタデータ) (2023-08-24T16:46:01Z) - A reading survey on adversarial machine learning: Adversarial attacks
and their understanding [6.1678491628787455]
Adversarial Machine Learningは、ニューラルネットワークがほぼオリジナルの入力を誤って分類する原因となる脆弱性を悪用し、理解する。
敵攻撃と呼ばれるアルゴリズムのクラスが提案され、ニューラルネットワークが異なるドメインの様々なタスクを誤って分類する。
本稿は、既存の敵攻撃とその理解について、異なる視点で調査する。
論文 参考訳(メタデータ) (2023-08-07T07:37:26Z) - Selective Explanations: Leveraging Human Input to Align Explainable AI [40.33998268146951]
人間の入力を小さなサンプルに利用して選択的な説明を生成するための一般的なフレームワークを提案する。
事例として,意思決定支援タスクを用いて,意思決定者が決定タスクにどう関係するかに基づいて,選択的な説明を探索する。
我々の実験は、AIへの過度な依存を減らすための選択的な説明の可能性を実証している。
論文 参考訳(メタデータ) (2023-01-23T19:00:02Z) - Homophily and Incentive Effects in Use of Algorithms [17.55279695774825]
本稿では,2つの要因がAIによる意思決定に与える影響を評価するために,クラウドソーシング・ヴィグネット研究を提案する。
まず、ホモフィリー(homophily)を検証します。
次に、インセンティブについて考えます -- ハイブリッドな意思決定環境に(既知の)コスト構造を組み込むには、どうすればよいのでしょう?
論文 参考訳(メタデータ) (2022-05-19T17:11:04Z) - Informing Autonomous Deception Systems with Cyber Expert Performance
Data [0.0]
本稿では、逆強化学習(IRL)を用いて攻撃行動、攻撃行動の有用性、究極的にはサイバー詐欺が阻止できる決定ポイントの洞察を得る可能性について検討する。
例えば、Tularosaの研究は、攻撃者がよく使う現実世界の技術とツールの実験データを提供し、そこからコアデータを活用して、自律的なサイバー防衛システムに通知する。
論文 参考訳(メタデータ) (2021-08-31T20:28:09Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Inspect, Understand, Overcome: A Survey of Practical Methods for AI
Safety [54.478842696269304]
安全クリティカルなアプリケーションにディープニューラルネットワーク(DNN)を使用することは、多数のモデル固有の欠点のために困難です。
近年,これらの安全対策を目的とした最先端技術動物園が出現している。
本稿は、機械学習の専門家と安全エンジニアの両方に対処する。
論文 参考訳(メタデータ) (2021-04-29T09:54:54Z) - Machine Learning Explanations to Prevent Overtrust in Fake News
Detection [64.46876057393703]
本研究では、ニュースレビュープラットフォームに組み込んだ説明可能なAIアシスタントが、フェイクニュースの拡散と戦う効果について検討する。
我々は、ニュースレビューと共有インターフェースを設計し、ニュース記事のデータセットを作成し、4つの解釈可能なフェイクニュース検出アルゴリズムを訓練する。
説明可能なAIシステムについてより深く理解するために、説明プロセスにおけるユーザエンゲージメント、メンタルモデル、信頼、パフォーマンス対策の相互作用について議論する。
論文 参考訳(メタデータ) (2020-07-24T05:42:29Z) - Adversarial Machine Learning Attacks and Defense Methods in the Cyber
Security Domain [58.30296637276011]
本稿では,機械学習技術に基づくセキュリティソリューションに対する敵攻撃に関する最新の研究を要約する。
サイバーセキュリティドメインでエンドツーエンドの敵攻撃を実装するという、ユニークな課題を議論するのは、これが初めてである。
論文 参考訳(メタデータ) (2020-07-05T18:22:40Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。