論文の概要: AI-in-the-Loop: Privacy Preserving Real-Time Scam Detection and Conversational Scambaiting by Leveraging LLMs and Federated Learning
- arxiv url: http://arxiv.org/abs/2509.05362v1
- Date: Thu, 04 Sep 2025 00:19:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:03.461713
- Title: AI-in-the-Loop: Privacy Preserving Real-Time Scam Detection and Conversational Scambaiting by Leveraging LLMs and Federated Learning
- Title(参考訳): AI-in-the-Loop:LLMの活用とフェデレーション学習によるリアルタイム詐欺検出と会話詐欺のプライバシ保護
- Authors: Ismail Hossain, Sai Puppala, Sajedul Talukder, Md Jahangir Alam,
- Abstract要約: リアルタイムのソーシャルエンジニアリングを利用する詐欺は、デジタルプラットフォーム全体の永続的で進化的な脅威であり続けている。
本稿では,スカム会話を積極的に検出し,リアルタイムに破壊するプライバシ保護型AI-in-the-loopフレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Scams exploiting real-time social engineering -- such as phishing, impersonation, and phone fraud -- remain a persistent and evolving threat across digital platforms. Existing defenses are largely reactive, offering limited protection during active interactions. We propose a privacy-preserving, AI-in-the-loop framework that proactively detects and disrupts scam conversations in real time. The system combines instruction-tuned artificial intelligence with a safety-aware utility function that balances engagement with harm minimization, and employs federated learning to enable continual model updates without raw data sharing. Experimental evaluations show that the system produces fluent and engaging responses (perplexity as low as 22.3, engagement $\approx$0.80), while human studies confirm significant gains in realism, safety, and effectiveness over strong baselines. In federated settings, models trained with FedAvg sustain up to 30 rounds while preserving high engagement ($\approx$0.80), strong relevance ($\approx$0.74), and low PII leakage ($\leq$0.0085). Even with differential privacy, novelty and safety remain stable, indicating that robust privacy can be achieved without sacrificing performance. The evaluation of guard models (LlamaGuard, LlamaGuard2/3, MD-Judge) shows a straightforward pattern: stricter moderation settings reduce the chance of exposing personal information, but they also limit how much the model engages in conversation. In contrast, more relaxed settings allow longer and richer interactions, which improve scam detection, but at the cost of higher privacy risk. To our knowledge, this is the first framework to unify real-time scam-baiting, federated privacy preservation, and calibrated safety moderation into a proactive defense paradigm.
- Abstract(参考訳): フィッシング、偽造、電話詐欺など、リアルタイムのソーシャルエンジニアリングを活用する詐欺は、デジタルプラットフォーム全体の永続的で進化中の脅威であり続けている。
既存の防御は、主に反応性があり、アクティブな相互作用の間は限定的な保護を提供する。
本稿では,スカム会話を積極的に検出し,リアルタイムに破壊するプライバシ保護型AI-in-the-loopフレームワークを提案する。
このシステムは、命令で調整された人工知能と、ハーネスの最小化とエンゲージメントのバランスをとる安全を意識したユーティリティ機能を組み合わせて、生のデータ共有なしに連続的なモデル更新を可能にするために、フェデレートされた学習を利用している。
実験による評価では、システムは流動的で活発な応答(複雑さは22.3ドル、エンゲージメント$\approx$0.80)を発生し、一方で人間による研究は、強いベースラインよりも現実性、安全性、有効性が著しく向上していることが確認されている。
フェデレーション設定では、FedAvgでトレーニングされたモデルは、高いエンゲージメント($0.80)、強い関連($0.74)、低いPIIリーク($0.0085)を維持しながら、最大30ラウンドを持続する。
差異のあるプライバシであっても、新規性と安全性は安定しており、堅牢なプライバシはパフォーマンスを犠牲にすることなく達成できることを示している。
ガードモデル(LlamaGuard, LlamaGuard2/3, MD-Judge)の評価は、より厳格なモデレーション設定によって個人情報を露出する確率が減少するが、モデルが会話にどれだけ関わるかを制限する。
対照的に、よりリラックスした設定は、より長くリッチなインタラクションを可能にし、詐欺検出を改善するが、プライバシーリスクが高い。
われわれの知る限り、これは、リアルタイム詐欺行為、連邦プライバシー保護、安全調整を前向きな防衛パラダイムに統一する最初のフレームワークである。
関連論文リスト
- ETA: Evaluating Then Aligning Safety of Vision Language Models at Inference Time [12.160713548659457]
対向的な視覚入力は、容易にVLM防御機構をバイパスすることができる。
本稿では,入力された視覚的内容と出力応答を評価する2相推論時間アライメントフレームワークを提案する。
実験の結果, ETAは無害性, 有用性, 効率の点で, ベースライン法よりも優れていた。
論文 参考訳(メタデータ) (2024-10-09T07:21:43Z) - Camel: Communication-Efficient and Maliciously Secure Federated Learning in the Shuffle Model of Differential Privacy [9.100955087185811]
フェデレートラーニング(FL)は、複数のクライアントが集約のための勾配更新のみを共有することで、モデルを共同でトレーニングすることを可能にする、急速に魅力的なパラダイムになっています。
プライバシーに敏感なグラデーションアップデートを保護するため、ローカルな差分プライバシーメカニズムの研究が続けられている。
我々は,DP のシャッフルモデルにおいて,コミュニケーション効率が高く,かつ悪意のある FL フレームワークである Camel を提示する。
論文 参考訳(メタデータ) (2024-10-04T13:13:44Z) - BEEAR: Embedding-based Adversarial Removal of Safety Backdoors in Instruction-tuned Language Models [57.5404308854535]
大型言語モデル(LLM)における安全バックドア攻撃は、正常な相互作用中の検出を回避しながら、安全でない振る舞いをステルス的に引き起こすことができる。
モデル埋め込み空間において,バックドアトリガーが比較的均一なドリフトを引き起こすという知見を活かした緩和手法であるBEEARを提案する。
両レベル最適化手法は、不要な振る舞いを誘発する普遍的な埋め込み摂動を特定し、モデルパラメータを調整し、これらの摂動に対する安全な振舞いを強化する。
論文 参考訳(メタデータ) (2024-06-24T19:29:47Z) - FLEDGE: Ledger-based Federated Learning Resilient to Inference and
Backdoor Attacks [8.866045560761528]
フェデレートラーニング(Federated Learning, FL)は、複数のパーティ(あるいはクライアント)がプライベートデータを共有せずに、共同で機械学習モデルをトレーニングする分散学習プロセスである。
近年の研究では、FLに対する推論および中毒攻撃の有効性が示されている。
FLEDGEと呼ばれる台帳ベースのFLフレームワークは、当事者が行動に責任を負わせ、推論や毒殺攻撃を緩和するための合理的な効率性を実現する。
論文 参考訳(メタデータ) (2023-10-03T14:55:30Z) - TeD-SPAD: Temporal Distinctiveness for Self-supervised
Privacy-preservation for video Anomaly Detection [59.04634695294402]
人間の監視のないビデオ異常検出(VAD)は複雑なコンピュータビジョンタスクである。
VADのプライバシー漏洩により、モデルは人々の個人情報に関連する不必要なバイアスを拾い上げ、増幅することができる。
本稿では,視覚的プライベート情報を自己管理的に破壊する,プライバシーに配慮したビデオ異常検出フレームワークTeD-SPADを提案する。
論文 参考訳(メタデータ) (2023-08-21T22:42:55Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Over-the-Air Federated Learning with Privacy Protection via Correlated
Additive Perturbations [57.20885629270732]
我々は、複数のユーザ/エージェントからエッジサーバへの勾配更新をOtA(Over-the-Air)で送信することで、無線フェデレーション学習のプライバシー面を考察する。
従来の摂動に基づく手法は、トレーニングの精度を犠牲にしてプライバシー保護を提供する。
本研究では,エッジサーバにおけるプライバシリークの最小化とモデル精度の低下を目標とする。
論文 参考訳(メタデータ) (2022-10-05T13:13:35Z) - No Free Lunch in "Privacy for Free: How does Dataset Condensation Help
Privacy" [75.98836424725437]
データプライバシを保護するために設計された新しい手法は、慎重に精査する必要がある。
プライバシ保護の失敗は検出し難いが,プライバシ保護法を実装したシステムが攻撃された場合,破滅的な結果につながる可能性がある。
論文 参考訳(メタデータ) (2022-09-29T17:50:23Z) - Secure and Privacy-Preserving Federated Learning via Co-Utility [7.428782604099875]
私たちは、参加する仲間にプライバシを提供し、ビザンチンや毒殺攻撃に対するセキュリティを提供する、連合学習フレームワークを構築しています。
更新アグリゲーションによるプライバシ保護とは異なり、我々のアプローチはモデル更新の価値を保ち、従って通常のフェデレーション学習の精度を保っている。
論文 参考訳(メタデータ) (2021-08-04T08:58:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。