論文の概要: Human-Centered Threat Modeling in Practice: Lessons, Challenges, and Paths Forward
- arxiv url: http://arxiv.org/abs/2511.13781v1
- Date: Sun, 16 Nov 2025 03:03:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-19 16:23:52.71564
- Title: Human-Centered Threat Modeling in Practice: Lessons, Challenges, and Paths Forward
- Title(参考訳): 実践における人間中心の脅威モデリング: 教訓、課題、道のり
- Authors: Warda Usman, Yixin Zou, Daniel Zappala,
- Abstract要約: 我々は、人間中心脅威モデリング(HCTM)の現状を調べるために、23の半構造化インタビューを行う。
HCTMは規範的なプロセスではなく、参加者との関係、学際的背景、制度的構造によって形成された一連の進化的なプラクティスである。
我々は、共有インフラを通じてHCTMを前進させる機会を特定し、多様な貢献を広く認識し、その結果を政策、デザイン、社会の変化に翻訳するためのより強力なメカニズムを明らかにした。
- 参考スコア(独自算出の注目度): 8.374213820742199
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human-centered threat modeling (HCTM) is an emerging area within security and privacy research that focuses on how people define and navigate threats in various social, cultural, and technological contexts. While researchers increasingly approach threat modeling from a human-centered perspective, little is known about how they prepare for and engage with HCTM in practice. In this work, we conduct 23 semi-structured interviews with researchers to examine the state of HCTM, including how researchers design studies, elicit threats, and navigate values, constraints, and long-term goals. We find that HCTM is not a prescriptive process but a set of evolving practices shaped by relationships with participants, disciplinary backgrounds, and institutional structures. Researchers approach threat modeling through sustained groundwork and participant-centered inquiry, guided by values such as care, justice, and autonomy. They also face challenges including emotional strain, ethical dilemmas, and structural barriers that complicate efforts to translate findings into real-world impact. We conclude by identifying opportunities to advance HCTM through shared infrastructure, broader recognition of diverse contributions, and stronger mechanisms for translating findings into policy, design, and societal change.
- Abstract(参考訳): 人間中心脅威モデリング(Human-centered threat modeling、HCTM)は、人々が様々な社会的、文化的、技術的文脈で脅威を定義し、ナビゲートする方法に焦点を当てた、セキュリティとプライバシの研究における新興分野である。
研究者は人間中心の視点から脅威モデリングに近づきつつあるが、実際にHCTMにどのように準備し、関与するかはほとんど分かっていない。
本研究では,HCTMの現状について,研究者がどのように研究を設計し,脅威を誘発し,価値,制約,長期目標をナビゲートするか,などについて,23回の半構造化インタビューを行った。
HCTMは規範的なプロセスではなく、参加者との関係、学際的背景、制度的構造によって形成された一連の進化的なプラクティスである。
研究者は、持続的な基礎作業と参加者中心の調査を通じて脅威モデリングにアプローチし、ケア、正義、自律といった価値によってガイドされる。
彼らはまた、感情的な緊張、倫理的なジレンマ、そして発見を現実世界のインパクトに翻訳する努力を複雑化する構造的障壁といった課題に直面している。
我々は、共有インフラを通じてHCTMを前進させる機会を特定し、多様な貢献を広く認識し、その結果を政策、デザイン、社会の変化に翻訳するためのより強力なメカニズムを明らかにした。
関連論文リスト
- Responsible Diffusion: A Comprehensive Survey on Safety, Ethics, and Trust in Diffusion Models [69.22690439422531]
拡散モデル(DM)は,高品質なデータを生成する能力から,様々な領域で研究されている。
従来のディープラーニングシステムと同様に、DMに対する潜在的な脅威も存在する。
この調査は、その枠組み、脅威、および対策を包括的に解明する。
論文 参考訳(メタデータ) (2025-09-25T02:51:43Z) - A Study on the Framework for Evaluating the Ethics and Trustworthiness of Generative AI [6.664765506069473]
ChatGPTのような生成AIは、驚くべき革新的な可能性を示している。
これは同時に、偏見、有害性、著作権侵害、プライバシー侵害、幻覚などの倫理的・社会的懸念を提起する。
本研究は,社会的影響を反映した新たな人間中心基準の必要性を強調した。
論文 参考訳(メタデータ) (2025-08-30T07:38:07Z) - Feeling Machines: Ethics, Culture, and the Rise of Emotional AI [18.212492056071657]
本稿では,批判的・学際的なレンズによる感情応答型人工知能の存在感の高まりについて考察する。
それは、人間の感情をシミュレートし、解釈するAIシステムが、教育、医療、メンタルヘルス、介護、デジタルライフなどの分野における私たちのインタラクションをどう変えているかを探求する。
この分析は、感情的AIの倫理的意味、人間と機械の相互作用の文化的ダイナミクス、脆弱な人口のリスクと機会、そして新たな規制、設計、技術的考察の4つの中心的なテーマに基づいて構成されている。
論文 参考訳(メタデータ) (2025-06-14T10:28:26Z) - Towards Privacy-aware Mental Health AI Models: Advances, Challenges, and Opportunities [58.61680631581921]
メンタルヘルス障害は、深い個人的・社会的負担を生じさせるが、従来の診断はリソース集約的でアクセシビリティが制限される。
本稿では、これらの課題を考察し、匿名化、合成データ、プライバシー保護トレーニングを含む解決策を提案する。
臨床的な意思決定をサポートし、メンタルヘルスの結果を改善する、信頼できるプライバシを意識したAIツールを進化させることを目標としている。
論文 参考訳(メタデータ) (2025-02-01T15:10:02Z) - Attack Atlas: A Practitioner's Perspective on Challenges and Pitfalls in Red Teaming GenAI [52.138044013005]
生成AI、特に大規模言語モデル(LLM)は、製品アプリケーションにますます統合される。
新たな攻撃面と脆弱性が出現し、自然言語やマルチモーダルシステムにおける敵の脅威に焦点を当てる。
レッドチーム(英語版)はこれらのシステムの弱点を積極的に識別する上で重要となり、ブルーチーム(英語版)はそのような敵の攻撃から保護する。
この研究は、生成AIシステムの保護のための学術的な洞察と実践的なセキュリティ対策のギャップを埋めることを目的としている。
論文 参考訳(メタデータ) (2024-09-23T10:18:10Z) - Recent Advances in Hate Speech Moderation: Multimodality and the Role of Large Models [52.24001776263608]
この包括的調査は、HSモデレーションの最近の歩みを掘り下げている。
大型言語モデル(LLM)と大規模マルチモーダルモデル(LMM)の急成長する役割を強調した。
研究における既存のギャップを、特に表現不足言語や文化の文脈で特定する。
論文 参考訳(メタデータ) (2024-01-30T03:51:44Z) - Towards Safer Generative Language Models: A Survey on Safety Risks,
Evaluations, and Improvements [76.80453043969209]
本調査では,大規模モデルに関する安全研究の枠組みについて述べる。
まず、広範囲にわたる安全問題を導入し、その後、大型モデルの安全性評価手法を掘り下げる。
トレーニングからデプロイメントまで,大規模なモデルの安全性を高めるための戦略について検討する。
論文 参考訳(メタデータ) (2023-02-18T09:32:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。