論文の概要: Toward Explainable Users: Using NLP to Enable AI to Understand Users'
Perceptions of Cyber Attacks
- arxiv url: http://arxiv.org/abs/2106.01998v1
- Date: Thu, 3 Jun 2021 17:17:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-04 17:28:15.023995
- Title: Toward Explainable Users: Using NLP to Enable AI to Understand Users'
Perceptions of Cyber Attacks
- Title(参考訳): 説明可能なユーザに向けて: NLPを使ってAIを使ってサイバー攻撃に対するユーザの認識を理解する
- Authors: Faranak Abri, Luis Felipe Gutierrez, Chaitra T. Kulkarni, Akbar Siami
Namin, Keith S. Jones
- Abstract要約: 本論文は,ユーザの行動とコンテキストに対する認識の説明とモデル化にAI技術を用いた最初の事例である。
我々の知る限り、この論文は、ユーザーの行動とコンテキストに対する認識の説明とモデル化にAI技術を使用した最初の事例である。
- 参考スコア(独自算出の注目度): 2.099922236065961
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: To understand how end-users conceptualize consequences of cyber security
attacks, we performed a card sorting study, a well-known technique in Cognitive
Sciences, where participants were free to group the given consequences of
chosen cyber attacks into as many categories as they wished using rationales
they see fit. The results of the open card sorting study showed a large amount
of inter-participant variation making the research team wonder how the
consequences of security attacks were comprehended by the participants. As an
exploration of whether it is possible to explain user's mental model and
behavior through Artificial Intelligence (AI) techniques, the research team
compared the card sorting data with the outputs of a number of Natural Language
Processing (NLP) techniques with the goal of understanding how participants
perceived and interpreted the consequences of cyber attacks written in natural
languages. The results of the NLP-based exploration methods revealed an
interesting observation implying that participants had mostly employed checking
individual keywords in each sentence to group cyber attack consequences
together and less considered the semantics behind the description of
consequences of cyber attacks. The results reported in this paper are seemingly
useful and important for cyber attacks comprehension from user's perspectives.
To the best of our knowledge, this paper is the first introducing the use of AI
techniques in explaining and modeling users' behavior and their perceptions
about a context. The novel idea introduced here is about explaining users using
AI.
- Abstract(参考訳): サイバーセキュリティ攻撃の結果をエンドユーザーがどのように概念化するかを理解するため、我々はCognitive Sciencesでよく知られたカードソート研究を行い、参加者は選択したサイバー攻撃の結果を、相応しい合理性を使って望む多くのカテゴリにまとめることができた。
オープンカードソート調査の結果,参加者間のばらつきは多大であり,研究チームは,セキュリティ攻撃の結果が参加者によってどのように理解されたのか疑問視した。
人工知能(AI)技術を用いてユーザーのメンタルモデルと行動を説明することが可能かどうかを調査するため、研究チームは、カードソートデータを複数の自然言語処理(NLP)技術の出力と比較し、参加者が自然言語で書かれたサイバー攻撃の結果をどのように認識し解釈するかを理解することを目標とした。
NLPに基づく探索手法の結果は、参加者が各文中の個々のキーワードをチェックしてサイバー攻撃の結果をグループ化し、サイバー攻撃の結果の説明の背後にある意味を考慮していなかったことを示唆する興味深い観察結果となった。
本報告の結果は,ユーザの視点からのサイバー攻撃の理解に有用かつ重要であると考えられる。
我々の知る限り、この論文は、ユーザーの行動とコンテキストに対する認識の説明とモデル化にAI技術を使用した最初の事例である。
ここで導入された新しいアイデアは、AIを使ってユーザーを説明することだ。
関連論文リスト
- Let people fail! Exploring the influence of explainable virtual and robotic agents in learning-by-doing tasks [45.23431596135002]
本研究は,古典的対パートナー意識による説明が学習作業中の人間の行動とパフォーマンスに与える影響を比較検討した。
その結果, パートナー意識による説明は, 関係する人工エージェントの種類によって, 参加者に異なる影響を及ぼした。
論文 参考訳(メタデータ) (2024-11-15T13:22:04Z) - A Survey on Offensive AI Within Cybersecurity [1.8206461789819075]
攻撃的AIに関する調査論文は、AIシステムに対する攻撃および使用に関する様々な側面を包括的にカバーする。
消費者、企業、公共のデジタルインフラストラクチャなど、さまざまな分野における攻撃的なAIプラクティスの影響を掘り下げる。
この論文では、敵対的な機械学習、AIモデルに対する攻撃、インフラストラクチャ、インターフェース、および情報収集、ソーシャルエンジニアリング、兵器化されたAIといった攻撃的テクニックについて検討する。
論文 参考訳(メタデータ) (2024-09-26T17:36:22Z) - Unmasking the Shadows of AI: Investigating Deceptive Capabilities in Large Language Models [0.0]
この研究は、大規模言語モデル(LLM)の騙し行動に集中して、AIの騙しの複雑な風景を批判的にナビゲートする。
私の目標は、この問題を解明し、それを取り巻く談話を調べ、その分類と混乱を掘り下げることです。
論文 参考訳(メタデータ) (2024-02-07T00:21:46Z) - A reading survey on adversarial machine learning: Adversarial attacks
and their understanding [6.1678491628787455]
Adversarial Machine Learningは、ニューラルネットワークがほぼオリジナルの入力を誤って分類する原因となる脆弱性を悪用し、理解する。
敵攻撃と呼ばれるアルゴリズムのクラスが提案され、ニューラルネットワークが異なるドメインの様々なタスクを誤って分類する。
本稿は、既存の敵攻撃とその理解について、異なる視点で調査する。
論文 参考訳(メタデータ) (2023-08-07T07:37:26Z) - Informing Autonomous Deception Systems with Cyber Expert Performance
Data [0.0]
本稿では、逆強化学習(IRL)を用いて攻撃行動、攻撃行動の有用性、究極的にはサイバー詐欺が阻止できる決定ポイントの洞察を得る可能性について検討する。
例えば、Tularosaの研究は、攻撃者がよく使う現実世界の技術とツールの実験データを提供し、そこからコアデータを活用して、自律的なサイバー防衛システムに通知する。
論文 参考訳(メタデータ) (2021-08-31T20:28:09Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Inspect, Understand, Overcome: A Survey of Practical Methods for AI
Safety [54.478842696269304]
安全クリティカルなアプリケーションにディープニューラルネットワーク(DNN)を使用することは、多数のモデル固有の欠点のために困難です。
近年,これらの安全対策を目的とした最先端技術動物園が出現している。
本稿は、機械学習の専門家と安全エンジニアの両方に対処する。
論文 参考訳(メタデータ) (2021-04-29T09:54:54Z) - Machine Learning Explanations to Prevent Overtrust in Fake News
Detection [64.46876057393703]
本研究では、ニュースレビュープラットフォームに組み込んだ説明可能なAIアシスタントが、フェイクニュースの拡散と戦う効果について検討する。
我々は、ニュースレビューと共有インターフェースを設計し、ニュース記事のデータセットを作成し、4つの解釈可能なフェイクニュース検出アルゴリズムを訓練する。
説明可能なAIシステムについてより深く理解するために、説明プロセスにおけるユーザエンゲージメント、メンタルモデル、信頼、パフォーマンス対策の相互作用について議論する。
論文 参考訳(メタデータ) (2020-07-24T05:42:29Z) - Adversarial Machine Learning Attacks and Defense Methods in the Cyber
Security Domain [58.30296637276011]
本稿では,機械学習技術に基づくセキュリティソリューションに対する敵攻撃に関する最新の研究を要約する。
サイバーセキュリティドメインでエンドツーエンドの敵攻撃を実装するという、ユニークな課題を議論するのは、これが初めてである。
論文 参考訳(メタデータ) (2020-07-05T18:22:40Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。