論文の概要: The aesthetics of cyber security: How do users perceive them?
- arxiv url: http://arxiv.org/abs/2306.08171v1
- Date: Tue, 13 Jun 2023 23:19:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-16 20:54:38.384067
- Title: The aesthetics of cyber security: How do users perceive them?
- Title(参考訳): サイバーセキュリティの美学: ユーザはそれをどのように認識するか?
- Authors: Mark Quinlan, Aaron Cross, Andrew Simpson
- Abstract要約: 我々は、サイバーセキュリティ情報に付随する視覚的資産を個々のユーザーがどう知覚するかを理解することを目指している。
視覚的アセットとユーザ認知はどのようにして異なるエンフェサイバーのセキュリティ美学を下書きするか
サイバーセキュリティのWeb記事から画像集合をコンパイルし、これらの画像の視覚的特性と感情を解析する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While specific aesthetic philosophies may differ across cultures, all human
societies have used aesthetics to support communication and learning. Within
the fields of usability and usable security, aesthetics have been deployed for
such diverse purposes as enhancing students' e-learning experiences and
optimising user interface design. In this paper, we seek to understand how
individual users perceive the visual assets that accompany cyber security
information, and how these visual assets and user perceptions underwrite a
distinct \emph{cyber security aesthetic}. We ask, (1) What constitutes cyber
security aesthetics, from the perspective of an individual user? and (2) How
might these aesthetics affect users' perceived self-efficacy as they informally
learn cyber security precepts? To begin answering these questions, we compile
an image-set from cyber security web articles and analyse the distinct visual
properties and sentiments of these images.
- Abstract(参考訳): 特定の審美哲学は文化によって異なるかもしれないが、すべての人間社会はコミュニケーションと学習を支援するために審美学を使っている。
ユーザビリティとユーザビリティの分野では,学生のeラーニング体験の向上やユーザインターフェース設計の最適化など,さまざまな目的で美学が展開されている。
本稿では,サイバーセキュリティ情報に付随する視覚的アセットを個々のユーザがどのように認識するか,また,これらの視覚的アセットとユーザ認識が,それぞれ異なる「emph{cyber security aesthetic}」を下書きするかを理解する。
1)個人ユーザの視点から,サイバーセキュリティの美学を構成するものは何か?
2)これらの美学は,サイバーセキュリティの原則を非公式に学習する上で,ユーザの自己効力感にどのように影響するのだろうか?
これらの質問に答えるために、サイバーセキュリティのweb記事からイメージセットをコンパイルし、イメージの視覚的特性と感情を分析します。
関連論文リスト
- Content and Salient Semantics Collaboration for Cloth-Changing Person Re-Identification [74.10897798660314]
衣服を交換する人の再識別は、重複しないカメラで同じ人の衣服の変化を認識することを目的としている。
本稿では、並列間セマンティクスの相互作用と洗練を容易にするコンテンツ・サリアンセマンティクス協調フレームワークを提案する。
我々のフレームワークはシンプルだが有効であり、重要な設計はセマンティックス・マイニング・アンド・リファインメント(SMR)モジュールである。
論文 参考訳(メタデータ) (2024-05-26T15:17:28Z) - Impressions: Understanding Visual Semiotics and Aesthetic Impact [66.40617566253404]
画像のセミオティックスを調べるための新しいデータセットであるImpressionsを提示する。
既存のマルチモーダル画像キャプションと条件付き生成モデルは、画像に対する可視的応答をシミュレートするのに苦労していることを示す。
このデータセットは、微調整と少数ショット適応により、画像の印象や美的評価をモデル化する能力を大幅に改善する。
論文 参考訳(メタデータ) (2023-10-27T04:30:18Z) - VILA: Learning Image Aesthetics from User Comments with Vision-Language
Pretraining [53.470662123170555]
ユーザからのコメントから画像美学を学習し、マルチモーダルな美学表現を学習するための視覚言語事前学習手法を提案する。
具体的には、コントラスト的および生成的目的を用いて、画像テキストエンコーダ-デコーダモデルを事前訓練し、人間のラベルなしでリッチで汎用的な美的意味学を学習する。
以上の結果から,AVA-Captionsデータセットを用いた画像の美的字幕化において,事前学習した美的視覚言語モデルよりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2023-03-24T23:57:28Z) - FaIRCoP: Facial Image Retrieval using Contrastive Personalization [43.293482565385055]
属性から顔画像を取得することは、顔認識や被疑者識別などの様々なシステムにおいて重要な役割を果たす。
既存の方法は、ユーザのメンタルイメージの特定の特徴を、提案した画像と比較することで実現している。
そこで本研究では,ユーザのフィードバックを用いて,対象画像と類似あるいは異な画像とラベル付けする手法を提案する。
論文 参考訳(メタデータ) (2022-05-28T09:52:09Z) - Towards Privacy-Preserving Affect Recognition: A Two-Level Deep Learning
Architecture [2.9392867898439006]
本研究では,感情認識のための2段階のディープラーニングアーキテクチャを提案する。
アーキテクチャは、特徴間の時間的関係をキャプチャするリカレントニューラルネットワークで構成されている。
論文 参考訳(メタデータ) (2021-11-14T13:52:57Z) - User-Guided Personalized Image Aesthetic Assessment based on Deep
Reinforcement Learning [64.07820203919283]
本稿では,新しいユーザガイド型画像美観評価フレームワークを提案する。
深部強化学習(DRL)に基づく審美評価のためのユーザインタラクションを活用して画像のリタッチとランク付けを行う
パーソナライズされた審美分布は、異なるユーザの審美的嗜好とより一致している。
論文 参考訳(メタデータ) (2021-06-14T15:19:48Z) - Learning Emotional-Blinded Face Representations [77.7653702071127]
感情反応に関連する表情に盲目な2つの顔表現を提案する。
この作業は、個人データ保護に関する新たな国際規則によって動機付けられている。
論文 参考訳(メタデータ) (2020-09-18T09:24:10Z) - Towards Face Encryption by Generating Adversarial Identity Masks [53.82211571716117]
敵の識別マスクを生成するためのターゲットID保護反復法(TIP-IM)を提案する。
TIP-IMは、様々な最先端の顔認識モデルに対して95%以上の保護成功率を提供する。
論文 参考訳(メタデータ) (2020-03-15T12:45:10Z) - An adversarial learning framework for preserving users' anonymity in
face-based emotion recognition [6.9581841997309475]
本稿では,反復的手順で学習した畳み込みニューラルネットワーク(CNN)アーキテクチャに依存する逆学習フレームワークを提案する。
その結果、提案手法は、感情認識の精度を保ち、顔認証の劣化を抑えるための畳み込み変換を学習できることが示唆された。
論文 参考訳(メタデータ) (2020-01-16T22:45:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。