論文の概要: Towards Modeling Cybersecurity Behavior of Humans in Organizations
- arxiv url: http://arxiv.org/abs/2603.08484v1
- Date: Mon, 09 Mar 2026 15:19:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:16.293155
- Title: Towards Modeling Cybersecurity Behavior of Humans in Organizations
- Title(参考訳): 組織における人間のサイバーセキュリティ行動のモデル化に向けて
- Authors: Klaas Ole Kürtz,
- Abstract要約: 私たちは、AIシステムが組織内の自律的なエージェントとして働きつつあり、自然言語処理にもとづくにつれて、人間の行動リスクに類似した脆弱性も現れている、と論じています。
この人中心型モデルは,AIエージェントを標的とした操作攻撃に対して,新たなセキュリティ戦略を開発するための青写真を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We undertake a comprehensive and structured synthesis of the drivers of human behavior in cybersecurity, focusing specifically on people within organizations (i.e., especially employees in companies), and integrate key concepts such as awareness, security culture, and usability into a coherent theoretical framework. This model is then compared with several relevant behavioral models that fundamentally represent drivers of human behavior. Additionally, we discuss how this theoretical framework can help the domain of agentic AI security: We argue that as AI systems increasingly act as autonomous agents within organizations and based on natural language processing, they also exhibit vulnerabilities analogous to human behavioral risks. Consequently, we propose that this human-centric model offers a blueprint for developing additional security strategies against manipulation attacks targeting AI agents.
- Abstract(参考訳): 我々は、サイバーセキュリティにおける人間の行動のドライバの包括的かつ構造化された合成を行い、特に組織内の人々(特に企業の従業員)に焦点を当て、認識、セキュリティ文化、ユーザビリティといった重要な概念を一貫性のある理論的枠組みに統合する。
このモデルは、人間の行動のドライバを根本的に表すいくつかの関連する行動モデルと比較される。
我々は、AIシステムが組織内の自律的なエージェントとして働きつつあり、自然言語処理にもとづいて、人間の行動的リスクに類似した脆弱性も示していると論じています。
その結果,AIエージェントを標的とした攻撃に対する新たなセキュリティ戦略を開発する上で,この人間中心モデルが青写真を提供する可能性が示唆された。
関連論文リスト
- Human Society-Inspired Approaches to Agentic AI Security: The 4C Framework [19.576189199576053]
この記事では、社会的なガバナンスにインスパイアされたマルチエージェントAIセキュリティのための4Cフレームワークを紹介します。
AIのセキュリティを、システム中心の保護から、行動の完全性と意図のより広範な保存に移行することで、このフレームワークは、既存のAIセキュリティ戦略を補完する。
論文 参考訳(メタデータ) (2026-02-02T10:45:16Z) - Conformity and Social Impact on AI Agents [42.04722694386303]
本研究では,AIエージェントとして機能する大規模マルチモーダル言語モデルにおいて,社会圧力下での集団意見の一致傾向について検討した。
実験の結果,AIエージェントは社会影響理論と整合性バイアスを示し,グループサイズ,一様性,タスクの難易度,ソース特性に敏感であることがわかった。
これらの発見は、悪意のある操作、誤報キャンペーン、マルチエージェントシステムにおけるバイアス伝搬を可能にするAIエージェント決定における基本的なセキュリティ脆弱性を明らかにしている。
論文 参考訳(メタデータ) (2026-01-08T21:16:28Z) - AI and Human Oversight: A Risk-Based Framework for Alignment [0.2039123720459736]
本稿では、基本的権利を守り、人事を強化し、効果的な人的監視機構を組み込むAIシステムを設計するための戦略を検討する。
この論文は、AIモデルのリスクのレベルと人間の監視の適切な形態を結びつけることによって、AIのデプロイに人間が関与する重要な役割を浮き彫りにする。
論文 参考訳(メタデータ) (2025-10-10T07:36:44Z) - The Agent Behavior: Model, Governance and Challenges in the AI Digital Age [13.689486430780518]
AIの進歩は、ネットワーク化された環境でエージェントが人間の振る舞いを反映するようになる。
本稿では,ネットワークの挙動を6段階に分割し,各段階における人間とエージェントの行動差を系統的に解析するネットワーク行動ライフサイクルモデルを提案する。
エージェントのためのエージェント(A4A)パラダイムと,5次元にわたる人間とエージェントの行動の根本的な区別を考察したHuman-Agent Behavioral Disparity(HABD)モデルについても紹介する。
論文 参考訳(メタデータ) (2025-08-20T04:24:55Z) - Agentic Web: Weaving the Next Web with AI Agents [109.13815627467514]
大規模言語モデル(LLM)を活用したAIエージェントの出現は、エージェントWebに対する重要な転換点である。
このパラダイムでは、エージェントが直接対話して、ユーザに代わって複雑なタスクを計画、コーディネート、実行します。
本稿では,エージェントWebの理解と構築のための構造化フレームワークを提案する。
論文 参考訳(メタデータ) (2025-07-28T17:58:12Z) - Internet of Agents: Fundamentals, Applications, and Challenges [68.9543153075464]
異種エージェント間のシームレスな相互接続、動的発見、協調的なオーケストレーションを可能にする基盤となるフレームワークとして、エージェントのインターネット(IoA)を紹介した。
我々は,機能通知と発見,適応通信プロトコル,動的タスクマッチング,コンセンサスとコンフリクト解決機構,インセンティブモデルなど,IoAの重要な運用イネーラを分析した。
論文 参考訳(メタデータ) (2025-05-12T02:04:37Z) - Causal Responsibility Attribution for Human-AI Collaboration [62.474732677086855]
本稿では,人間のAIシステムにおける責任を体系的に評価するために,構造因果モデル(SCM)を用いた因果的枠組みを提案する。
2つのケーススタディは、多様な人間とAIのコラボレーションシナリオにおけるフレームワークの適応性を示している。
論文 参考訳(メタデータ) (2024-11-05T17:17:45Z) - Human-AI Safety: A Descendant of Generative AI and Control Systems Safety [6.100304850888953]
先進的なAI技術に対する有意義な安全性保証には、AI出力と人間の振る舞いによって形成されるフィードバックループが、どのようにして異なる結果に向かって相互作用を駆動するかについての推論が必要である、と我々は主張する。
我々は、次世代の人間中心AI安全性に向けた具体的な技術ロードマップを提案する。
論文 参考訳(メタデータ) (2024-05-16T03:52:00Z) - Position Paper: Agent AI Towards a Holistic Intelligence [53.35971598180146]
エージェントAI - 大きな基盤モデルをエージェントアクションに統合する具体的システム。
本稿では,エージェント・ファウンデーション・モデル(エージェント・ファウンデーション・モデル)を提案する。
論文 参考訳(メタデータ) (2024-02-28T16:09:56Z) - The Rise and Potential of Large Language Model Based Agents: A Survey [91.71061158000953]
大規模言語モデル(LLM)は、人工知能(AGI)の潜在的な火花と見なされる
まず、エージェントの概念を哲学的起源からAI開発まで追跡し、LLMがエージェントに適した基盤である理由を説明します。
単一エージェントシナリオ,マルチエージェントシナリオ,ヒューマンエージェント協調の3つの側面において,LLMベースのエージェントの広範な応用について検討する。
論文 参考訳(メタデータ) (2023-09-14T17:12:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。