論文の概要: SEAR: A Multimodal Dataset for Analyzing AR-LLM-Driven Social Engineering Behaviors
- arxiv url: http://arxiv.org/abs/2505.24458v1
- Date: Fri, 30 May 2025 10:46:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-02 19:47:52.912591
- Title: SEAR: A Multimodal Dataset for Analyzing AR-LLM-Driven Social Engineering Behaviors
- Title(参考訳): SEAR:AR-LLM駆動型ソーシャルエンジニアリング行動分析のためのマルチモーダルデータセット
- Authors: Tianlong Yu, Chenghang Ye, Zheyu Yang, Ziyi Zhou, Cui Tang, Zui Tao, Jun Zhang, Kailong Wang, Liting Zhou, Yang Yang, Ting Bi,
- Abstract要約: SEARデータセットは、拡張現実(AR)とマルチモーダル大言語モデル(LLM)によって編成された社会工学(SE)攻撃の出現する脅威を研究するために設計された、新しいマルチモーダルリソースである。
このデータセットは、シミュレーションされた敵シナリオにおける60人の参加者間の180の注釈付き会話をキャプチャする。
それは、ARでキャプチャされた視覚/オーディオの手がかり(例えば、表情、声のトーン)、環境条件、ソーシャルメディアのプロフィール、そして信頼評価や感受性評価などの主観的な指標を含む。
- 参考スコア(独自算出の注目度): 8.285642026459179
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The SEAR Dataset is a novel multimodal resource designed to study the emerging threat of social engineering (SE) attacks orchestrated through augmented reality (AR) and multimodal large language models (LLMs). This dataset captures 180 annotated conversations across 60 participants in simulated adversarial scenarios, including meetings, classes and networking events. It comprises synchronized AR-captured visual/audio cues (e.g., facial expressions, vocal tones), environmental context, and curated social media profiles, alongside subjective metrics such as trust ratings and susceptibility assessments. Key findings reveal SEAR's alarming efficacy in eliciting compliance (e.g., 93.3% phishing link clicks, 85% call acceptance) and hijacking trust (76.7% post-interaction trust surge). The dataset supports research in detecting AR-driven SE attacks, designing defensive frameworks, and understanding multimodal adversarial manipulation. Rigorous ethical safeguards, including anonymization and IRB compliance, ensure responsible use. The SEAR dataset is available at https://github.com/INSLabCN/SEAR-Dataset.
- Abstract(参考訳): SEAR Datasetは、拡張現実(AR)とマルチモーダル大規模言語モデル(LLM)によって編成された、社会工学(SE)攻撃の新たな脅威を研究するために設計された、新しいマルチモーダルリソースである。
このデータセットは、60人の参加者にまたがる180のアノテートされた会話を、ミーティング、クラス、ネットワークイベントなど、シミュレーションされた敵シナリオでキャプチャする。
それは、ARでキャプチャされた視覚/オーディオの手がかり(例えば、表情、声調)、環境条件、ソーシャルメディアのプロフィール、そして信頼評価や感受性評価などの主観的な指標を含む。
主要な発見は、SEARがコンプライアンス(例えば93.3%のフィッシングリンククリック、85%の呼び出し受け入れ)とハイジャック信頼(76.7%の反作用後の信頼の急上昇)を誘発する、という警告効果を示している。
このデータセットは、AR駆動のSE攻撃の検出、防御フレームワークの設計、マルチモーダル敵操作の理解における研究を支援する。
匿名化やIRBコンプライアンスを含む厳格な倫理的保護は、責任ある使用を保証する。
SEARデータセットはhttps://github.com/INSLabCN/SEAR-Datasetで公開されている。
関連論文リスト
- On the Feasibility of Using MultiModal LLMs to Execute AR Social Engineering Attacks [8.28564202645918]
マルチモーダル大規模言語モデルを用いたAR駆動型社会工学攻撃の組織化のためのフレームワークを提案する。
以上の結果から,SEARはリスクの高い行動を引き出すのに極めて有効であることが示唆された。
また, 「時折人工的な」 などの特徴的限界は, 正当性差の認識によるものである。
論文 参考訳(メタデータ) (2025-04-16T05:18:36Z) - CBW: Towards Dataset Ownership Verification for Speaker Verification via Clustering-based Backdoor Watermarking [85.68235482145091]
大規模音声データセットは貴重な知的財産となった。
本稿では,新しいデータセットのオーナシップ検証手法を提案する。
我々のアプローチはクラスタリングに基づくバックドア透かし(CBW)を導入している。
我々は,ベンチマークデータセットに対する広範な実験を行い,本手法の有効性とロバスト性を検証した。
論文 参考訳(メタデータ) (2025-03-02T02:02:57Z) - Look, Listen, and Answer: Overcoming Biases for Audio-Visual Question Answering [25.577314828249897]
本稿では,公開データセット(MUSIC-AVQA)のテストスプリット内での質問の表現と,分割された質問に対する分散シフトの導入という,2つのステップで構築された新しいデータセットMUSIC-AVQA-Rを提案する。
実験の結果、このアーキテクチャはMUSIC-AVQA-Rの最先端性能を実現し、特に9.32%の大幅な改善が得られた。
論文 参考訳(メタデータ) (2024-04-18T09:16:02Z) - AV-RIR: Audio-Visual Room Impulse Response Estimation [49.469389715876915]
室内インパルス応答(RIR)の正確な推定は,音声処理やAR/VR応用において重要である。
本稿では,与えられた残響音声信号と対応する環境の視覚的手がかりからRIRを正確に推定する,新しいマルチモーダルマルチタスク学習手法であるAV-RIRを提案する。
論文 参考訳(メタデータ) (2023-11-30T22:58:30Z) - PS-ARM: An End-to-End Attention-aware Relation Mixer Network for Person
Search [56.02761592710612]
モジュール・パーソン・サーチのための新しいアテンション・アウェア・リレーション・ミキサー(ARM)を提案する。
私たちのARMモジュールはネイティブで、きめ細かい監督やトポロジカルな仮定に依存していません。
我々のPS-ARMは、両方のデータセットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-10-07T10:04:12Z) - EasyCom: An Augmented Reality Dataset to Support Algorithms for Easy
Communication in Noisy Environments [43.05826988957987]
我々は、ARメガネ着用者の会話を改善するアルゴリズムのトレーニングとテストに有用な5時間以上のマルチモーダルデータを含むデータセットをリリースする。
ベースライン法に対して,音声の可聴性,品質,信号対雑音比の改善結果を提供し,全試験指標に比較して改善を示す。
論文 参考訳(メタデータ) (2021-07-09T02:00:47Z) - ROSbag-based Multimodal Affective Dataset for Emotional and Cognitive
States [0.9786690381850356]
本稿では,ロボット・オペレーティング・システム(ROS)を用いた感情・認知状態に対するROSbagベースのマルチモーダル感情データセットを提案する。
我々は、IAPS(International Affective Pictures System)とIADS(International Affective Digitized Sounds)のイメージと音を用いて、ターゲットの感情を刺激した。
生成された感情データセットは1,602のROSbagファイルで構成され、データセットのサイズは約787GBである。
論文 参考訳(メタデータ) (2020-06-09T08:09:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。