論文の概要: DASH: Deception-Augmented Shared Mental Model for a Human-Machine Teaming System
- arxiv url: http://arxiv.org/abs/2512.18616v1
- Date: Sun, 21 Dec 2025 06:20:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.423602
- Title: DASH: Deception-Augmented Shared Mental Model for a Human-Machine Teaming System
- Title(参考訳): DASH:人間とマシーンのチーム編成のための認知力増強型メンタルモデル
- Authors: Zelin Wan, Han Jun Yoon, Nithin Alluru, Terrence J. Moore, Frederica F. Nelson, Seunghyun Yoon, Hyuk Lim, Dan Dongseong Kim, Jin-Hee Cho,
- Abstract要約: 本稿では,ミッションレジリエンスを高める新しいフレームワークであるDASH(Deception-Augmented Shared mental Model for Human-machine Teaming)を提案する。
DASHは、侵入された無人地上車両(UGV)、AIエージェント、人間アナリストなどのインサイダー脅威を検出するために、"ベイトタスク"を導入している。
検出時に、UGVシステムの再インストール、AIモデルの再トレーニング、あるいは人間のアナリスト置換を含む、調整されたリカバリメカニズムが起動される。
- 参考スコア(独自算出の注目度): 9.18045000474976
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present DASH (Deception-Augmented Shared mental model for Human-machine teaming), a novel framework that enhances mission resilience by embedding proactive deception into Shared Mental Models (SMM). Designed for mission-critical applications such as surveillance and rescue, DASH introduces "bait tasks" to detect insider threats, e.g., compromised Unmanned Ground Vehicles (UGVs), AI agents, or human analysts, before they degrade team performance. Upon detection, tailored recovery mechanisms are activated, including UGV system reinstallation, AI model retraining, or human analyst replacement. In contrast to existing SMM approaches that neglect insider risks, DASH improves both coordination and security. Empirical evaluations across four schemes (DASH, SMM-only, no-SMM, and baseline) show that DASH sustains approximately 80% mission success under high attack rates, eight times higher than the baseline. This work contributes a practical human-AI teaming framework grounded in shared mental models, a deception-based strategy for insider threat detection, and empirical evidence of enhanced robustness under adversarial conditions. DASH establishes a foundation for secure, adaptive human-machine teaming in contested environments.
- Abstract(参考訳): 本稿では,有能な虚偽を共有精神モデル(SMM)に埋め込むことでミッションレジリエンスを高める新しいフレームワークであるDASH(Deception-Augmented Shared mental Model for Human-machine Teaming)を提案する。
監視や救助などのミッションクリティカルな用途のために設計されたDASHは、チームパフォーマンスを低下させる前に、例えば無人地上車両(Unmanned Ground Vehicles, UGV)、AIエージェント、人間アナリストなど、インサイダーの脅威を検出する"ベイトタスク"を導入している。
検出時に、UGVシステムの再インストール、AIモデルの再トレーニング、あるいは人間のアナリスト置換を含む、調整されたリカバリメカニズムが起動される。
インサイダーリスクを無視する既存のSMMアプローチとは対照的に、DASHはコーディネーションとセキュリティの両方を改善している。
4つのスキーム(DASH, SMM-only, no-SMM, baseline)にまたがる実証的な評価の結果, DASHは高い攻撃率で約80%のミッション成功を維持でき, ベースラインの8倍高い。
この研究は、共有精神モデルに基づく実践的人間-AIチームリングフレームワーク、インサイダー脅威検出のための偽装に基づく戦略、および敵対的条件下での強靭性の実証的証拠に寄与する。
DASHは、競合する環境での安全で適応的な人間マシンチームのための基盤を確立する。
関連論文リスト
- SentinelNet: Safeguarding Multi-Agent Collaboration Through Credit-Based Dynamic Threat Detection [22.242243610133215]
大規模言語モデル(LLM)を用いたマルチエージェントシステム(MAS)の信頼性と意思決定能力に悪質なエージェントが重大な脅威をもたらす
マルチエージェントコラボレーションにおいて,悪意ある動作を積極的に検出・緩和する,最初の分散化フレームワークであるSentinelNetを提案する。
MASベンチマークの実験では、SentinelNetは2回の討論ラウンドで100%近く、悪意のあるエージェントのほぼ完全な検出を実現し、漏洩したベースラインからシステム精度の95%を回復している。
論文 参考訳(メタデータ) (2025-10-17T21:10:35Z) - AdvEvo-MARL: Shaping Internalized Safety through Adversarial Co-Evolution in Multi-Agent Reinforcement Learning [78.5751183537704]
AdvEvo-MARLは、タスクエージェントに安全性を内部化する、共進化型マルチエージェント強化学習フレームワークである。
外部ガードに頼るのではなく、AdvEvo-MARLは攻撃者と防御者を共同で最適化する。
論文 参考訳(メタデータ) (2025-10-02T02:06:30Z) - Can an Individual Manipulate the Collective Decisions of Multi-Agents? [53.01767232004823]
M-Spoilerは、マルチエージェントシステム内のエージェントインタラクションをシミュレートして、対向サンプルを生成するフレームワークである。
M-スポイラーは、敵対的サンプルの最適化を積極的に支援するスタブボーン剤を導入した。
本研究は,マルチエージェントシステムにおける個々のエージェントの知識によって引き起こされるリスクを検証した。
論文 参考訳(メタデータ) (2025-09-20T01:54:20Z) - Cowpox: Towards the Immunity of VLM-based Multi-Agent Systems [25.286964510949183]
核となるセキュリティ特性は堅牢性であり、システムは敵の攻撃下でその整合性を維持するべきである、と述べている。
我々は,マルチエージェントシステムのロバスト性を高めるための新しい防衛手法,Cowpoxを提案する。
論文 参考訳(メタデータ) (2025-08-12T07:48:51Z) - Security Challenges in AI Agent Deployment: Insights from a Large Scale Public Competition [101.86739402748995]
44の現実的なデプロイメントシナリオを対象とした,22のフロンティアAIエージェントを対象にしています。
Agent Red Teamingベンチマークを構築し、19の最先端モデルで評価します。
私たちの発見は、今日のAIエージェントの重要かつ永続的な脆弱性を浮き彫りにしたものです。
論文 参考訳(メタデータ) (2025-07-28T05:13:04Z) - Poisoning Behavioral-based Worker Selection in Mobile Crowdsensing using Generative Adversarial Networks [14.727690033873657]
本研究は,移動群集センシング(MCS)における行動ベース選択モデルを対象とした敵攻撃を提案する。
提案攻撃では、GAN(Generative Adrial Networks)を利用して、トレーニング段階でモデルが誤認される可能性のある毒点を生成する。
論文 参考訳(メタデータ) (2025-06-04T04:48:51Z) - HiddenBench: Assessing Collective Reasoning in Multi-Agent LLMs via Hidden Profile Tasks [12.203366267017737]
マルチエージェント LLM における集合的推論を評価するための最初のベンチマークである HiddenBench を紹介する。
ベンチマークを基礎として,このパラダイムをカスタムタスクで形式化し,GPT-4.1グループが分散知識の統合に失敗したことを示す。
次に、カスタムデザイン、先行研究、自動生成から引き出された65のタスクにまたがる完全なベンチマークを構築します。
論文 参考訳(メタデータ) (2025-05-15T19:22:54Z) - EARBench: Towards Evaluating Physical Risk Awareness for Task Planning of Foundation Model-based Embodied AI Agents [53.717918131568936]
EAI(Embodied AI)は、高度なAIモデルを現実世界のインタラクションのための物理的なエンティティに統合する。
高レベルのタスク計画のためのEAIエージェントの"脳"としてのファンデーションモデルは、有望な結果を示している。
しかし、これらのエージェントの物理的環境への展開は、重大な安全性上の課題を呈している。
本研究では,EAIシナリオにおける身体的リスクの自動評価のための新しいフレームワークEARBenchを紹介する。
論文 参考訳(メタデータ) (2024-08-08T13:19:37Z) - Model-based Reinforcement Learning for Decentralized Multiagent
Rendezvous [66.6895109554163]
目標を他のエージェントと整合させる人間の能力の下にあるのは、他人の意図を予測し、自分たちの計画を積極的に更新する能力である。
分散型マルチエージェントレンデブーのためのモデルに基づく強化学習手法である階層型予測計画(HPP)を提案する。
論文 参考訳(メタデータ) (2020-03-15T19:49:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。