論文の概要: URM4DMU: an user represention model for darknet markets users
- arxiv url: http://arxiv.org/abs/2303.10674v1
- Date: Sun, 19 Mar 2023 14:33:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-21 17:54:23.975114
- Title: URM4DMU: an user represention model for darknet markets users
- Title(参考訳): URM4DMU:ダークネット市場ユーザーのためのユーザー表現モデル
- Authors: Hongmeng Liu, Jiapeng Zhao, Yixuan Huo, Yuyan Wang, Chun Liao, Liyan
Shen, Shiyao Cui, Jinqiao Shi
- Abstract要約: 本稿では、畳み込み演算子と自己注意を増強することにより、ポスト表現を改善するURM4DMUというモデルを提案する。
ダークネット市場におけるURM4DMUの有効性を示す。
- 参考スコア(独自算出の注目度): 4.80209215814404
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Darknet markets provide a large platform for trading illicit goods and
services due to their anonymity. Learning an invariant representation of each
user based on their posts on different markets makes it easy to aggregate user
information across different platforms, which helps identify anonymous users.
Traditional user representation methods mainly rely on modeling the text
information of posts and cannot capture the temporal content and the forum
interaction of posts. While recent works mainly use CNN to model the text
information of posts, failing to effectively model posts whose length changes
frequently in an episode. To address the above problems, we propose a model
named URM4DMU(User Representation Model for Darknet Markets Users) which mainly
improves the post representation by augmenting convolutional operators and
self-attention with an adaptive gate mechanism. It performs much better when
combined with the temporal content and the forum interaction of posts. We
demonstrate the effectiveness of URM4DMU on four darknet markets. The average
improvements on MRR value and Recall@10 are 22.5% and 25.5% over the
state-of-the-art method respectively.
- Abstract(参考訳): ダークネット市場は匿名性のために違法品やサービスを取引するための大きなプラットフォームを提供している。
異なるマーケットでの投稿に基づいて各ユーザの不変表現を学ぶことで、異なるプラットフォームにまたがるユーザ情報を集約することが容易になり、匿名ユーザを特定するのに役立ちます。
従来のユーザ表現手法は、主に投稿のテキスト情報をモデル化し、記事の時間的内容やフォーラムのやりとりを捉えることができない。
最近の作品は、主にcnnを使って投稿のテキスト情報をモデル化しているが、エピソードで頻繁に変化する投稿を効果的にモデル化できていない。
上記の問題に対処するため,我々は,畳み込み演算子と適応ゲート機構による自己注意を増強することにより,主にポスト表現を改善するURM4DMU(User Representation Model for Darknet Markets Users)というモデルを提案する。
記事のテンポラリなコンテンツとフォーラムのやりとりを組み合わせると、ずっとうまく機能します。
ダークネット市場におけるURM4DMUの有効性を示す。
MRR値とRecall@10の平均的な改善は、それぞれ22.5%と25.5%である。
関連論文リスト
- MisinfoEval: Generative AI in the Era of "Alternative Facts" [50.069577397751175]
本稿では,大規模言語モデル(LLM)に基づく誤情報介入の生成と評価を行うフレームワークを提案する。
本研究では,(1)誤情報介入の効果を測定するための模擬ソーシャルメディア環境の実験,(2)ユーザの人口動態や信念に合わせたパーソナライズされた説明を用いた第2の実験について述べる。
以上の結果から,LSMによる介入はユーザの行動の修正に極めて有効であることが確認された。
論文 参考訳(メタデータ) (2024-10-13T18:16:50Z) - Stereotype or Personalization? User Identity Biases Chatbot Recommendations [54.38329151781466]
大規模言語モデル(LLM)は,ユーザが何を望んでいるのか,何者なのかを反映したレコメンデーションを生成する。
モデルが、ユーザが意図的に自身のアイデンティティを明らかにするかどうかに関わらず、人種的にステレオタイプなレコメンデーションを生成することがわかった。
実験の結果,ユーザの識別がモデルレコメンデーションに大きく影響しているにもかかわらず,モデル応答はユーザクエリに応答して,この事実を難読化することがわかった。
論文 参考訳(メタデータ) (2024-10-08T01:51:55Z) - Modeling Domain and Feedback Transitions for Cross-Domain Sequential Recommendation [60.09293734134179]
$textTransition2$は、ドメインとユーザフィードバックのタイプの両方にわたるトランジションをモデル化する新しい方法です。
ユーザ履歴に基づいた遷移対応グラフエンコーダを導入し,フィードバックタイプに応じて異なる重みをエッジに割り当てる。
我々は、異なるタイプの遷移を識別するために、様々なマスクを組み込んで、クロストランジション・マルチヘッド・セルフアテンションを用いて、ユーザ履歴をエンコードする。
論文 参考訳(メタデータ) (2024-08-15T15:18:55Z) - SoMeR: Multi-View User Representation Learning for Social Media [1.7949335303516192]
本稿では,ソーシャルメディアのユーザ表現学習フレームワークであるSoMeRを提案する。
SoMeRは、ユーザ投稿ストリームをタイムスタンプ付きテキスト機能のシーケンスとしてエンコードし、トランスフォーマーを使用してプロファイルデータと共にそれを埋め込み、リンク予測とコントラスト学習の目標を共同でトレーニングする。
1)類似コンテンツを同時に投稿するユーザを検出することによって、協調的な影響操作に関わる不正確なアカウントを同定し、2)異なる信念を持つユーザがより遠くへ移動する様子を定量化して、主要なイベント後のオンライン議論における偏光の増大を測定する。
論文 参考訳(メタデータ) (2024-05-02T22:26:55Z) - The future is different: Large pre-trained language models fail in
prediction tasks [2.9005223064604078]
WALLSTREETBETS, ASKSCIENCE, THE DONALD, POLITICSの4つの新しいREDDITデータセットを紹介した。
まず,トピック分布が時間とともに変化するサブレディットからのポストの人気を予測した場合,LPLMは平均88%の性能低下を示すことを実証的に実証した。
次に、ニューラル変動動的トピックモデルとアテンションメカニズムを利用して、回帰タスクの時間的言語モデル表現を推論する簡単な手法を提案する。
論文 参考訳(メタデータ) (2022-11-01T11:01:36Z) - Meta Knowledge Condensation for Federated Learning [65.20774786251683]
既存のフェデレートされた学習パラダイムは通常、より強力なモデルを達成するために、中央の解決器で分散モデルを広範囲に交換する。
これにより、特にデータ分散が不均一である場合、サーバと複数のクライアントの間で深刻な通信負荷が発生します。
既存のパラダイムとは違って,フェデレート学習におけるコミュニケーションコストを大幅に削減する新たな視点を導入する。
論文 参考訳(メタデータ) (2022-09-29T15:07:37Z) - The Road to Explainability is Paved with Bias: Measuring the Fairness of
Explanations [30.248116795946977]
モデル予測を信頼するために、ポストホックな説明可能性法がしばしば提案される。
ファイナンス、ヘルスケア、大学入学、および米国司法制度の4つの設定の実際のデータを使用します。
説明モデルの近似品質、あるいは忠実度は、部分群間で大きく異なることが分かる。
論文 参考訳(メタデータ) (2022-05-06T15:23:32Z) - GAME-ON: Graph Attention Network based Multimodal Fusion for Fake News Detection [6.037721620350107]
我々は,マルチモーダルフェイクニュース検出のためのより堅牢なデータ表現を学習するための,グラフニューラルネットワークに基づくエンドツーエンドトレーニング可能なフレームワークであるGAME-ONを提案する。
当社のモデルはTwitter上で平均11%向上し、Weiboでは2.6%のマージンで競争力を維持する一方で、最も優れた最先端ベースラインよりも65%少ないパラメータを使用する。
論文 参考訳(メタデータ) (2022-02-25T03:27:37Z) - StyleML: Stylometry with Structure and Multitask Learning for Darkweb
Markets [10.667309064333883]
ダークネット市場フォーラムは違法商品やサービスを交換するために頻繁に利用されている。
Torネットワークはこれらの市場をホストするために使用され、IPと位置追跡の匿名化が保証される。
自然言語とインタラクションモデリングのための新しいスタイロメトリベースのマルチタスク学習手法を開発した。
論文 参考訳(メタデータ) (2021-04-01T20:59:02Z) - Modeling High-order Interactions across Multi-interests for Micro-video
Reommendation [65.16624625748068]
利用者の興味表現を高めるためのセルフオーバーCoアテンションモジュールを提案します。
特に、まず相関パターンを異なるレベルでモデル化し、次に自己注意を使って特定のレベルで相関パターンをモデル化します。
論文 参考訳(メタデータ) (2021-04-01T07:20:15Z) - Visualising Deep Network's Time-Series Representations [93.73198973454944]
機械学習モデルの普及にもかかわらず、多くの場合、モデルの内部で起きていることに関する洞察のないブラックボックスとして運用される。
本稿では,多次元時系列データの可視化に着目し,この問題に対処する手法を提案する。
高周波在庫市場データセットの実験は、この方法が迅速かつ識別可能な可視化を提供することを示しています。
論文 参考訳(メタデータ) (2021-03-12T09:53:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。