論文の概要: Human Factors in Security Research: Lessons Learned from 2008-2018
- arxiv url: http://arxiv.org/abs/2103.13287v1
- Date: Wed, 24 Mar 2021 15:58:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-06 23:44:09.555792
- Title: Human Factors in Security Research: Lessons Learned from 2008-2018
- Title(参考訳): セキュリティ研究におけるヒューマンファクター:2008年から2018年までの教訓
- Authors: Mannat Kaur, Michel van Eeten, Marijn Janssen, Kevin Borgolte, and
Tobias Fiebig
- Abstract要約: 我々は、人間のエラーが多くのシステムに同時に影響しうる専門家の重要集団に関する研究に焦点をあてる。
我々は、セキュリティとプライバシーに関する過去10年間のヒューマンファクター調査を分析し、557の関連出版物を特定した。
- 参考スコア(独自算出の注目度): 8.255966566768484
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Instead of only considering technology, computer security research now
strives to also take into account the human factor by studying regular users
and, to a lesser extent, experts like operators and developers of systems. We
focus our analysis on the research on the crucial population of experts, whose
human errors can impact many systems at once, and compare it to research on
regular users. To understand how far we advanced in the area of human factors,
how the field can further mature, and to provide a point of reference for
researchers new to this field, we analyzed the past decade of human factors
research in security and privacy, identifying 557 relevant publications. Of
these, we found 48 publications focused on expert users and analyzed all in
depth. For additional insights, we compare them to a stratified sample of 48
end-user studies.
In this paper we investigate:
(i) The perspective on human factors, and how we can learn from safety
science (ii) How and who are the participants recruited, and how this -- as we
find -- creates a western-centric perspective (iii) Research objectives, and
how to align these with the chosen research methods (iv) How theories can be
used to increase rigor in the communities scientific work, including
limitations to the use of Grounded Theory, which is often incompletely applied
(v) How researchers handle ethical implications, and what we can do to account
for them more consistently
Although our literature review has limitations, new insights were revealed
and avenues for further research identified.
- Abstract(参考訳): テクノロジーだけを考えるのではなく、コンピュータセキュリティの研究は、通常のユーザーを研究し、ある程度はオペレーターやシステムの開発者のような専門家も考慮しようと努力している。
我々は、人間のエラーが多くのシステムに一度に影響を与えうる専門家の重要集団の研究に焦点をあて、それを一般ユーザーの研究と比較する。
人的要因の領域でどこまで進歩し、その分野がさらに成熟していくのか、また、この分野に新しい研究者の参考となるために、セキュリティとプライバシに関する人間的要因の研究の過去10年間を分析し、557の関連出版物を特定した。
そのうち48の出版物は専門家のユーザーに焦点を当てており、全てを深く分析している。
さらなる知見を得るためには、48のエンドユーザー研究の成層化サンプルと比較する。
本稿では,
(i)ヒューマンファクターの展望と安全科学から学ぶ方法
二 参加者の勧誘の仕方、そして、我々が見いだしたように、これが西洋中心の視点をいかに生み出すか
(iii)研究の目的と選択した研究方法との整合
(iv)不完全に適用される接地理論の使用の制限を含む、科学研究における厳密性を高めるための理論の活用方法
五 研究者が倫理的意味をどう扱うか、それらについてより一貫して説明できることは、文献レビューには限界があるものの、新たな知見が明らかにされ、さらなる研究の道筋が特定される。
関連論文リスト
- Transforming Science with Large Language Models: A Survey on AI-assisted Scientific Discovery, Experimentation, Content Generation, and Evaluation [58.064940977804596]
多くの新しいAIモデルとツールが提案され、世界中の研究者や学者が研究をより効果的かつ効率的に実施できるようにすることを約束している。
これらのツールの欠点と誤用の可能性に関する倫理的懸念は、議論の中で特に顕著な位置を占める。
論文 参考訳(メタデータ) (2025-02-07T18:26:45Z) - PersonaFlow: Boosting Research Ideation with LLM-Simulated Expert Personas [12.593617990325528]
研究アイデアを支援するためにペルソナシミュレーションを用いたLLMシステムであるペルソナフローを紹介する。
以上の結果から,複数のペルソナをアイデア作成中に使用すると,ユーザ認識の質が著しく向上することが示唆された。
ユーザのペルソナカスタマイズインタラクションは、生成したアイデアのコントロールとリコールの感覚を大幅に改善した。
論文 参考訳(メタデータ) (2024-09-19T07:54:29Z) - ResearchAgent: Iterative Research Idea Generation over Scientific Literature with Large Language Models [56.08917291606421]
ResearchAgentは、新しい作品のアイデアと運用のためのAIベースのシステムである。
ResearchAgentは、新しい問題を自動で定義し、手法と設計実験を提案し、繰り返し修正する。
我々は、複数の分野にわたる科学論文に関するResearchAgentを実験的に検証した。
論文 参考訳(メタデータ) (2024-04-11T13:36:29Z) - AI Knowledge and Reasoning: Emulating Expert Creativity in Scientific Research [0.2209921757303168]
本稿では,AIのトレーニング遮断後の論文を生かした新しい手法を提案する。
AIは、発見を再実行し、再実行された研究の結果を予測し、報告された結果に対する予測精度を評価する。
論文 参考訳(メタデータ) (2024-04-05T22:30:47Z) - A Literature Review of Literature Reviews in Pattern Analysis and Machine Intelligence [55.33653554387953]
パターン分析とマシンインテリジェンス(PAMI)は、情報の収集と断片化を目的とした多くの文献レビューにつながっている。
本稿では、PAMI分野におけるこれらの文献レビューの徹底的な分析について述べる。
1)PAMI文献レビューの構造的・統計的特徴は何か,(2)レビューの増大するコーパスを効率的にナビゲートするために研究者が活用できる戦略は何か,(3)AIが作成したレビューの利点と限界は人間によるレビューと比較するとどのようなものか,という3つの主要な研究課題に対処しようとする。
論文 参考訳(メタデータ) (2024-02-20T11:28:50Z) - Challenges, Adaptations, and Fringe Benefits of Conducting Software
Engineering Research with Human Participants during the COVID-19 Pandemic [9.908359906110187]
新型コロナウイルス(COVID-19)のパンデミックは、私たちの生活、仕事、そして研究のやり方を変えました。
我々は、この影響の程度を理解するために、混合手法の研究を行った。
パンデミックの間、人間の参加者を巻き込んだ研究を行ない、大きな課題、適応、そして驚くほどの利益を見出した。
論文 参考訳(メタデータ) (2024-01-11T05:02:57Z) - A Comprehensive Survey of Forgetting in Deep Learning Beyond Continual Learning [58.107474025048866]
蓄積とは、以前に獲得した知識の喪失または劣化を指す。
フォッテッティングは、深層学習における様々な研究領域でよく見られる現象である。
論文 参考訳(メタデータ) (2023-07-16T16:27:58Z) - The ethical ambiguity of AI data enrichment: Measuring gaps in research
ethics norms and practices [2.28438857884398]
この研究は、AI研究とデータ豊か化のために、同等な研究倫理要件と規範がどのように開発されたか、そしてどの程度まで調査する。
主要なAI会場は、人間のデータ収集のためのプロトコルを確立し始めているが、これらは矛盾なく著者が追従している。
論文 参考訳(メタデータ) (2023-06-01T16:12:55Z) - How WEIRD is Usable Privacy and Security Research? (Extended Version) [7.669758543344074]
本研究は, WEIRD 諸国のUPS 紙のサンプルがどの程度の規模であったかを明らかにするため, 文献レビューを行った。
研究手法と採用手法における地理的および言語的障壁は、研究者がローカルでユーザー研究を行う原因となる可能性がある。
論文 参考訳(メタデータ) (2023-05-08T19:21:18Z) - Fairness in Recommender Systems: Research Landscape and Future
Directions [119.67643184567623]
本稿は,近年の地域におけるフェアネスの概念と概念について概観する。
この分野での研究が現在どのように行われているのかを概観する。
全体として、最近の研究成果の分析は、ある研究のギャップを示している。
論文 参考訳(メタデータ) (2022-05-23T08:34:25Z) - Scaling up Search Engine Audits: Practical Insights for Algorithm
Auditing [68.8204255655161]
異なる地域に数百の仮想エージェントを配置した8つの検索エンジンの実験を行った。
複数のデータ収集にまたがる研究インフラの性能を実証する。
仮想エージェントは,アルゴリズムの性能を長時間にわたって監視するための,有望な場所である,と結論付けている。
論文 参考訳(メタデータ) (2021-06-10T15:49:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。