論文の概要: An LLM Agent-based Framework for Whaling Countermeasures
- arxiv url: http://arxiv.org/abs/2601.14606v1
- Date: Wed, 21 Jan 2026 02:43:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-22 21:27:50.219233
- Title: An LLM Agent-based Framework for Whaling Countermeasures
- Title(参考訳): LLMエージェントを用いた捕鯨対策フレームワーク
- Authors: Daisuke Miyamoto, Takuji Iimura, Narushige Michishita,
- Abstract要約: 捕鯨 (Whaling) は、社会工学の一形態であり、組織内の重要な権威を持つ個人をターゲットにしている。
本研究では,大学教員を対象とした捕鯨対策の枠組みを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the spread of generative AI in recent years, attacks known as Whaling have become a serious threat. Whaling is a form of social engineering that targets important high-authority individuals within organizations and uses sophisticated fraudulent emails. In the context of Japanese universities, faculty members frequently hold positions that combine research leadership with authority within institutional workflows. This structural characteristic leads to the wide public disclosure of high-value information such as publications, grants, and detailed researcher profiles. Such extensive information exposure enables the construction of highly precise target profiles using generative AI. This raises concerns that Whaling attacks based on high-precision profiling by generative AI will become prevalent. In this study, we propose a Whaling countermeasure framework for university faculty members that constructs personalized defense profiles and uses large language model (LLM)-based agents. We design agents that (i) build vulnerability profiles for each target from publicly available information on faculty members, (ii) identify potential risk scenarios relevant to Whaling defense based on those profiles, (iii) construct defense profiles corresponding to the vulnerabilities and anticipated risks, and (iv) analyze Whaling emails using the defense profiles. Furthermore, we conduct a preliminary risk-assessment experiment. The results indicate that the proposed method can produce judgments accompanied by explanations of response policies that are consistent with the work context of faculty members who are Whaling targets. The findings also highlight practical challenges and considerations for future operational deployment and systematic evaluation.
- Abstract(参考訳): 近年、生成AIの普及に伴い、Whalingとして知られる攻撃は深刻な脅威となっている。
捕鯨は社会工学の一形態であり、組織内の重要な権威の高い個人をターゲットにしており、洗練された詐欺メールを使用している。
日本の大学の文脈では、教員は研究指導力と機関のワークフローにおける権威を兼ね備えた立場をしばしば持つ。
この構造的特徴は、出版物、助成金、詳細な研究者プロファイルなどの高価値情報を広く公開することにつながる。
このような広範囲な情報露光により、生成AIを用いた高精度なターゲットプロファイルの構築が可能になる。
これにより、生成AIによる高精度なプロファイリングに基づく捕鯨攻撃が一般的になるという懸念が持ち上がる。
本研究では,パーソナライズされた防衛プロファイルを構築し,大規模言語モデル(LLM)に基づくエージェントを用いた大学教員を対象とした捕鯨対策フレームワークを提案する。
エージェントを設計します
一 教職員の公開情報から各目標に対する脆弱性プロファイルを構築すること。
2そのプロファイルに基づいて捕鯨防衛に関連する潜在的なリスクシナリオを特定すること。
三 脆弱性及び予測リスクに対応する防衛プロファイルを構築すること。
(iv) 防衛プロファイルを用いて Whaling メールを解析する。
さらに,予備的なリスク評価実験を実施している。
提案手法は, 捕鯨対象である教員の作業状況に整合した対応方針の説明を伴って, 判断を導出できることが示唆された。
この発見はまた、将来の運用展開と体系的な評価に関する実践的な課題と考察を強調している。
関連論文リスト
- Toward Quantitative Modeling of Cybersecurity Risks Due to AI Misuse [50.87630846876635]
我々は9つの詳細なサイバーリスクモデルを開発する。
各モデルはMITRE ATT&CKフレームワークを使用して攻撃をステップに分解する。
個々の見積もりはモンテカルロシミュレーションによって集約される。
論文 参考訳(メタデータ) (2025-12-09T17:54:17Z) - Breaking to Build: A Threat Model of Prompt-Based Attacks for Securing LLMs [0.0]
大規模言語モデル(LLM)は重要なセキュリティ課題を導入している。
敵のアクターは入力プロンプトを操作できる 重大な損傷を発生させ 安全アライメントを回避できる
本調査は,次世代のLLMの構築に向けた研究コミュニティの取り組みを報告することを目的としている。
論文 参考訳(メタデータ) (2025-09-04T18:59:07Z) - Retrieval-Augmented Review Generation for Poisoning Recommender Systems [24.91518889595497]
本稿では,高品質な偽ユーザプロファイルを生成するために,RAGANという新しい実用的な攻撃フレームワークを提案する。
RAGANは最先端の中毒攻撃性能を達成する。
論文 参考訳(メタデータ) (2025-08-21T05:25:22Z) - A Survey on Model Extraction Attacks and Defenses for Large Language Models [55.60375624503877]
モデル抽出攻撃は、デプロイされた言語モデルに重大なセキュリティ脅威をもたらす。
この調査は、抽出攻撃と防御攻撃の包括的分類、機能抽出への攻撃の分類、データ抽出の訓練、およびプロンプトターゲット攻撃を提供する。
モデル保護,データプライバシ保護,迅速なターゲット戦略に編成された防御機構について検討し,その効果を異なる展開シナリオで評価する。
論文 参考訳(メタデータ) (2025-06-26T22:02:01Z) - Automated Profile Inference with Language Model Agents [67.32226960040514]
自動プロファイル推論(Automatic Profile Inference)と呼ばれる,LLMがオンラインの偽名にもたらす新たな脅威について検討する。
相手は、LDMに対して、疑似プラットフォーム上で公開されているユーザアクティビティから、機密性の高い個人属性を自動的に取り除き、抽出するように指示することができる。
実世界のシナリオにおけるこのような脅威の可能性を評価するために,AutoProfilerという自動プロファイリングフレームワークを導入する。
論文 参考訳(メタデータ) (2025-05-18T13:05:17Z) - ToDA: Target-oriented Diffusion Attacker against Recommendation System [19.546532220090793]
レコメンデーションシステム(RS)は、敵がユーザープロファイルを操作できる悪意のある攻撃を受けやすいため、バイアスのあるレコメンデーションにつながる。
最近の研究は、しばしばこれらの偽りのユーザープロファイルを作成するために生成モデルを使って追加のモジュールを統合する。
ターゲット指向拡散攻撃モデル(ToDA)を提案する。
ユーザープロファイルを高次元空間に変換し、ToDAのコアコンポーネントであるLatent Diffusion Attacker(LDA)と組み合わせる、事前訓練されたオートエンコーダが組み込まれている。
論文 参考訳(メタデータ) (2024-01-23T09:12:26Z) - On the Security Risks of Knowledge Graph Reasoning [71.64027889145261]
我々は、敵の目標、知識、攻撃ベクトルに応じて、KGRに対するセキュリティ脅威を体系化する。
我々は、このような脅威をインスタンス化する新しいタイプの攻撃であるROARを提示する。
ROARに対する潜在的な対策として,潜在的に有毒な知識のフィルタリングや,対向的な拡張クエリによるトレーニングについて検討する。
論文 参考訳(メタデータ) (2023-05-03T18:47:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。