論文の概要: ROBAD: Robust Adversary-aware Local-Global Attended Bad Actor Detection Sequential Model
- arxiv url: http://arxiv.org/abs/2507.15067v1
- Date: Sun, 20 Jul 2025 18:03:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-22 20:51:32.181588
- Title: ROBAD: Robust Adversary-aware Local-Global Attended Bad Actor Detection Sequential Model
- Title(参考訳): ROBAD:ロバスト・アドバイザリー・アウェア・ローカル・グローバル・アタッチメント・バッド・アクター検出シーケンスモデル
- Authors: Bing He, Mustaque Ahamad, Srijan Kumar,
- Abstract要約: ROBADは、ユーザ投稿のシーケンスを使用して、ユーザ埋め込みを生成して、悪いアクターを検出する。
YelpとWikipediaの実験によると、ROBADは最先端の敵対的攻撃で悪役を効果的に検出できる。
- 参考スコア(独自算出の注目度): 21.007806717655146
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Detecting bad actors is critical to ensure the safety and integrity of internet platforms. Several deep learning-based models have been developed to identify such users. These models should not only accurately detect bad actors, but also be robust against adversarial attacks that aim to evade detection. However, past deep learning-based detection models do not meet the robustness requirement because they are sensitive to even minor changes in the input sequence. To address this issue, we focus on (1) improving the model understanding capability and (2) enhancing the model knowledge such that the model can recognize potential input modifications when making predictions. To achieve these goals, we create a novel transformer-based classification model, called ROBAD (RObust adversary-aware local-global attended Bad Actor Detection model), which uses the sequence of user posts to generate user embedding to detect bad actors. Particularly, ROBAD first leverages the transformer encoder block to encode each post bidirectionally, thus building a post embedding to capture the local information at the post level. Next, it adopts the transformer decoder block to model the sequential pattern in the post embeddings by using the attention mechanism, which generates the sequence embedding to obtain the global information at the sequence level. Finally, to enrich the knowledge of the model, embeddings of modified sequences by mimicked attackers are fed into a contrastive-learning-enhanced classification layer for sequence prediction. In essence, by capturing the local and global information (i.e., the post and sequence information) and leveraging the mimicked behaviors of bad actors in training, ROBAD can be robust to adversarial attacks. Extensive experiments on Yelp and Wikipedia datasets show that ROBAD can effectively detect bad actors when under state-of-the-art adversarial attacks.
- Abstract(参考訳): インターネットプラットフォームの安全性と整合性を確保するためには,悪役の検出が不可欠だ。
このようなユーザを特定するために,ディープラーニングベースのモデルがいくつか開発されている。
これらのモデルは、悪質なアクターを正確に検出するだけでなく、検出を回避しようとする敵攻撃に対して堅牢であるべきである。
しかし、過去のディープラーニングに基づく検出モデルは、入力シーケンスの微妙な変化にも敏感であるため、ロバスト性要件を満たしていない。
この問題に対処するため,(1)モデル理解能力の向上,(2)モデルが予測を行う際の潜在的な入力変更を認識することができるようなモデル知識の向上に焦点をあてる。
これらの目標を達成するために,ユーザ投稿のシーケンスを用いてユーザ埋め込みを生成し,悪いアクターを検出するROOBAD(RObust adversary-aware local-global attended Bad Actor Detection model)と呼ばれる,トランスフォーマーに基づく新しい分類モデルを構築した。
特にROBADは、まずトランスフォーマーエンコーダブロックを利用して、各ポストを双方向にエンコードする。
次に、コンバータデコーダブロックを用いて、アテンション機構を用いて、ポスト埋め込みにおけるシーケンシャルパターンをモデル化し、シーケンス埋め込みを生成し、シーケンスレベルでグローバル情報を得る。
最後に、モデルの知識を豊かにするために、模倣攻撃者による修正シーケンスの埋め込みを、シーケンス予測のための対照的な学習強化分類層に入力する。
本質的には、ローカルおよびグローバルな情報(ポストおよびシーケンス情報)を捕捉し、トレーニング中の悪役の模倣行動を活用することにより、ROBADは敵の攻撃に対して堅牢である。
YelpとWikipediaのデータセットに関する大規模な実験は、ROBADが最先端の敵攻撃を受けた場合、悪質なアクターを効果的に検出できることを示している。
関連論文リスト
- Robust Anomaly Detection in Network Traffic: Evaluating Machine Learning Models on CICIDS2017 [0.0]
筆者らはCICIDS 2017データセット上で, 4つの代表モデルの比較を行った。
SupervisedとCNNは、慣れ親しんだ攻撃に対してほぼ完璧な精度を達成したが、新しい攻撃に対して劇的なリコールの損失を被った。
監視されていないLOFは、誤報の高揚を犠牲にして、適度な全体的な精度と未知の脅威に対する高いリコールを達成する。
論文 参考訳(メタデータ) (2025-06-23T15:31:10Z) - Embedding Hidden Adversarial Capabilities in Pre-Trained Diffusion Models [1.534667887016089]
我々は,極細調整による拡散モデルに直接,隠れた敵の能力を組み込む新たな攻撃パラダイムを導入する。
得られた改ざんされたモデルは、原画像と区別できない高品質な画像を生成する。
当社のアプローチの有効性とステルス性を実証し、新たなセキュリティ上の懸念を生じさせる隠蔽攻撃ベクトルを明らかにする。
論文 参考訳(メタデータ) (2025-04-05T12:51:36Z) - Open-Set Deepfake Detection: A Parameter-Efficient Adaptation Method with Forgery Style Mixture [58.60915132222421]
本稿では,顔偽造検出に汎用的かつパラメータ効率の高い手法を提案する。
フォージェリー・ソース・ドメインの多様性を増大させるフォージェリー・ミックス・フォーミュレーションを設計する。
設計したモデルは、トレーニング可能なパラメータを著しく減らし、最先端の一般化性を実現する。
論文 参考訳(メタデータ) (2024-08-23T01:53:36Z) - Defense Against Adversarial Attacks using Convolutional Auto-Encoders [0.0]
敵攻撃は入力データを知覚不能な摂動で操作し、モデルがデータを誤分類したり、誤出力を発生させたりする。
この研究は、敵攻撃に対する標的モデルの堅牢性を高めることに基づいている。
論文 参考訳(メタデータ) (2023-12-06T14:29:16Z) - Uncovering the Limits of Machine Learning for Automatic Vulnerability Detection [12.529028629599349]
本稿では,ML4VD技術の真の性能と限界をよりよく評価するための新しいベンチマーク手法を提案する。
6つのML4VD技術と2つのデータセットを使用して、(a)テストデータの脆弱性を予測するために、最先端のモデルが無関係な機能に過度に適合していること、(b)データ拡張によって得られるパフォーマンスが、トレーニング中に適用される特定の拡張を超えて一般化されないことを発見した。
論文 参考訳(メタデータ) (2023-06-28T08:41:39Z) - DOAD: Decoupled One Stage Action Detection Network [77.14883592642782]
人々をローカライズし、ビデオからアクションを認識することは、ハイレベルなビデオ理解にとって難しい課題だ。
既存の手法は主に2段階ベースで、1段階は人物境界ボックス生成、もう1段階は行動認識を行う。
本稿では、時間的行動検出の効率を向上させるために、DOADと呼ばれる分離したワンステージネットワークを提案する。
論文 参考訳(メタデータ) (2023-04-01T08:06:43Z) - Enhancing Multiple Reliability Measures via Nuisance-extended
Information Bottleneck [77.37409441129995]
トレーニングデータに制限がある現実的なシナリオでは、データ内の多くの予測信号は、データ取得のバイアスからより多く得る。
我々は,相互情報制約の下で,より広い範囲の摂動をカバーできる敵の脅威モデルを考える。
そこで本研究では,その目的を実現するためのオートエンコーダベーストレーニングと,提案したハイブリッド識別世代学習を促進するための実用的なエンコーダ設計を提案する。
論文 参考訳(メタデータ) (2023-03-24T16:03:21Z) - Confidence Attention and Generalization Enhanced Distillation for
Continuous Video Domain Adaptation [62.458968086881555]
連続ビデオドメイン適応(CVDA、Continuous Video Domain Adaptation)は、ソースモデルが個々の変更対象ドメインに適応する必要があるシナリオである。
CVDAの課題に対処するため,遺伝子組み換え型自己知識解離(CART)を用いた信頼性保証ネットワークを提案する。
論文 参考訳(メタデータ) (2023-03-18T16:40:10Z) - Zero Day Threat Detection Using Metric Learning Autoencoders [3.1965908200266173]
企業ネットワークへのゼロデイ脅威(ZDT)の拡散は、非常にコストがかかる。
ディープラーニング手法は、高度に非線形な振る舞いパターンをキャプチャする能力にとって魅力的な選択肢である。
ここで提示されるモデルは、さらに2つのデータセットでトレーニングされ、評価され、新しいネットワークトポロジに一般化しても、有望な結果を示し続ける。
論文 参考訳(メタデータ) (2022-11-01T13:12:20Z) - Attentive Prototypes for Source-free Unsupervised Domain Adaptive 3D
Object Detection [85.11649974840758]
3Dオブジェクト検出ネットワークは、トレーニングされたデータに対してバイアスを受ける傾向がある。
そこで本研究では,ライダーを用いた3次元物体検出器のソースレス・教師なし領域適応のための単一フレーム手法を提案する。
論文 参考訳(メタデータ) (2021-11-30T18:42:42Z) - Fortify Machine Learning Production Systems: Detect and Classify
Adversarial Attacks [0.0]
本研究では,入ってくる敵の攻撃とその特性を検出する生産保護システムを提案する。
基盤となるモデルは、これらの攻撃から堅牢になるように構造化された方法でトレーニングすることができる。
逆画像分類空間は、転送学習でよく使われるモデルについて検討される。
論文 参考訳(メタデータ) (2021-02-19T00:47:16Z) - Unsupervised Anomaly Detection with Adversarial Mirrored AutoEncoders [51.691585766702744]
本稿では,識別器のミラー化ワッサースタイン損失を利用して,よりセマンティックレベルの再構築を行う逆自動エンコーダの変種を提案する。
我々は,再建基準の代替として,異常スコアの代替尺度を提案した。
提案手法は,OOD検出ベンチマークにおける異常検出の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2020-03-24T08:26:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。