論文の概要: Detecting and Quantifying Malicious Activity with Simulation-based
Inference
- arxiv url: http://arxiv.org/abs/2110.02483v2
- Date: Thu, 7 Oct 2021 10:56:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-08 12:58:44.289583
- Title: Detecting and Quantifying Malicious Activity with Simulation-based
Inference
- Title(参考訳): シミュレーションに基づく推論による悪意活動の検出と定量化
- Authors: Andrew Gambardella, Bogdan State, Naeemullah Khan, Leo Tsourides,
Philip H. S. Torr, At{\i}l{\i}m G\"une\c{s} Baydin
- Abstract要約: 本稿では,レコメンデーションアルゴリズムと相互作用する正規および悪意のあるユーザのモデルを用いて,悪意のあるユーザ識別実験を行う。
本稿では,ユーザやグループの影響を定量化するためのシミュレーションに基づく新しい尺度を提案する。
- 参考スコア(独自算出の注目度): 61.9008166652035
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose the use of probabilistic programming techniques to tackle the
malicious user identification problem in a recommendation algorithm.
Probabilistic programming provides numerous advantages over other techniques,
including but not limited to providing a disentangled representation of how
malicious users acted under a structured model, as well as allowing for the
quantification of damage caused by malicious users. We show experiments in
malicious user identification using a model of regular and malicious users
interacting with a simple recommendation algorithm, and provide a novel
simulation-based measure for quantifying the effects of a user or group of
users on its dynamics.
- Abstract(参考訳): 本稿では,悪意のあるユーザ識別問題に対処する確率的プログラミング手法を推薦アルゴリズムで提案する。
確率的プログラミングは、悪意のあるユーザーが構造化されたモデルの下でどのように振る舞うかの不連続な表現を提供するだけでなく、悪意のあるユーザーによって引き起こされるダメージの定量化を可能にするなど、他の技術よりも多くの利点を提供する。
簡単なレコメンデーションアルゴリズムと相互作用する正規ユーザと悪意ユーザのモデルを用いて、悪意のあるユーザ識別実験を行い、そのダイナミクスに対するユーザやグループの影響を定量化する新しいシミュレーションベースの尺度を提案する。
関連論文リスト
- SeGA: Preference-Aware Self-Contrastive Learning with Prompts for
Anomalous User Detection on Twitter [14.483830120541894]
本稿では,ユーザの異常検出のための自己コントラスト学習であるSeGAを提案する。
SeGAは、投稿を通じてユーザの好みを要約するために、大きな言語モデルを使用する。
モデル設計と事前学習戦略の有効性を実証的に検証する。
論文 参考訳(メタデータ) (2023-12-17T05:35:28Z) - User Inference Attacks on Large Language Models [26.616016510555088]
ファインチューニング(英: Fine-tuning)は、大規模言語モデル(LLM)を特定のタスクやアプリケーションに合わせるための、一般的で効果的な方法である。
ユーザデータに対する微調整LDMのプライバシーへの影響について検討する。
論文 参考訳(メタデータ) (2023-10-13T17:24:52Z) - Online Corrupted User Detection and Regret Minimization [49.536254494829436]
現実世界のオンラインウェブシステムでは、複数のユーザがシステムに順次到着する。
乱れた行動から未知のユーザ関係を学習・活用するために,LOCUDという重要なオンライン学習問題を提案する。
我々はRCLUB-WCUの推測ユーザ関係に基づく新しいオンライン検出アルゴリズムOCCUDを考案した。
論文 参考訳(メタデータ) (2023-10-07T10:20:26Z) - R-U-SURE? Uncertainty-Aware Code Suggestions By Maximizing Utility
Across Random User Intents [14.455036827804541]
大規模言語モデルは、コードのような構造化されたテキストを予測する上で印象的な結果を示すが、一般的にはエラーや幻覚を出力に導入する。
ランダム化ユーティリティ駆動型不確実領域合成(R-U-SURE)を提案する。
R-U-SUREは、ゴール条件付きユーティリティの意思決定理論モデルに基づく不確実性を考慮した提案を構築するためのアプローチである。
論文 参考訳(メタデータ) (2023-03-01T18:46:40Z) - Quantifying Availability and Discovery in Recommender Systems via
Stochastic Reachability [27.21058243752746]
そこで本稿では,ユーザへのコンテンツ推薦の最大確率を定量化するために,到達性に基づく評価手法を提案する。
リーチビリティは、コンテンツの可用性のバイアスを検出し、ユーザに与えられる発見の機会の制限を診断するために使用することができる。
明示的および暗黙的な評価の大規模なデータセットに基づいてトレーニングされた推薦アルゴリズムの評価を示す。
論文 参考訳(メタデータ) (2021-06-30T16:18:12Z) - Automated Decision-based Adversarial Attacks [48.01183253407982]
我々は、実用的で挑戦的な意思決定ベースのブラックボックスの敵意設定を考える。
この設定では、攻撃者はターゲットモデルに問い合わせるだけで最終分類ラベルを取得できる。
意思決定に基づく攻撃アルゴリズムを自動的に発見する。
論文 参考訳(メタデータ) (2021-05-09T13:15:10Z) - A Hamiltonian Monte Carlo Method for Probabilistic Adversarial Attack
and Learning [122.49765136434353]
本稿では,HMCAM (Acumulated Momentum) を用いたハミルトニアンモンテカルロ法を提案する。
また, 対数的対数的対数的学習(Contrastive Adversarial Training, CAT)と呼ばれる新たな生成法を提案し, 対数的例の平衡分布にアプローチする。
いくつかの自然画像データセットと実用システムに関する定量的および定性的な解析により、提案アルゴリズムの優位性が確認された。
論文 参考訳(メタデータ) (2020-10-15T16:07:26Z) - A black-box adversarial attack for poisoning clustering [78.19784577498031]
本稿では,クラスタリングアルゴリズムのロバスト性をテストするために,ブラックボックス対逆攻撃法を提案する。
我々の攻撃は、SVM、ランダムフォレスト、ニューラルネットワークなどの教師付きアルゴリズムに対しても転送可能であることを示す。
論文 参考訳(メタデータ) (2020-09-09T18:19:31Z) - Plausible Counterfactuals: Auditing Deep Learning Classifiers with
Realistic Adversarial Examples [84.8370546614042]
ディープラーニングモデルのブラックボックスの性質は、彼らがデータから何を学ぶかについて、未回答の疑問を提起している。
GAN(Generative Adversarial Network)とマルチオブジェクトは、監査されたモデルに妥当な攻撃を与えるために使用される。
その実用性は人間の顔の分類タスクの中で示され、提案されたフレームワークの潜在的可能性を明らかにしている。
論文 参考訳(メタデータ) (2020-03-25T11:08:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。