論文の概要: Automatic User Profiling in Darknet Markets: a Scalability Study
- arxiv url: http://arxiv.org/abs/2203.13179v1
- Date: Thu, 24 Mar 2022 16:54:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 15:50:27.708709
- Title: Automatic User Profiling in Darknet Markets: a Scalability Study
- Title(参考訳): ダークネット市場におけるユーザ自動プロファイリングのスケーラビリティに関する研究
- Authors: Claudia Peersman, Matthew Edwards, Emma Williams, Awais Rashid
- Abstract要約: 本研究の目的は,現在の計算スタイメトリ手法の信頼性と限界を理解することである。
根拠となる真実は得られず、歴史的調査による検証済みの犯罪データも検証目的には利用できないため、クリアウェブフォーラムから新たなデータを収集した。
- 参考スコア(独自算出の注目度): 15.83443291553249
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this study, we investigate the scalability of state-of-the-art user
profiling technologies across different online domains. More specifically, this
work aims to understand the reliability and limitations of current
computational stylometry approaches when these are applied to underground fora
in which user populations potentially differ from other online platforms
(predominantly male, younger age and greater computer use) and cyber offenders
who attempt to hide their identity. Because no ground truth is available and no
validated criminal data from historic investigations is available for
validation purposes, we have collected new data from clearweb forums that do
include user demographics and could be more closely related to underground fora
in terms of user population (e.g., tech communities) than commonly used social
media benchmark datasets showing a more balanced user population.
- Abstract(参考訳): 本研究では,様々なオンラインドメインにまたがる最先端ユーザプロファイリング技術のスケーラビリティについて検討する。
具体的には、ユーザー人口が他のオンラインプラットフォーム(主に男性、若年、コンピュータ使用量が多い)や、身元を隠そうとするサイバー犯罪者と異なる可能性のある地下フォアに適用される場合、現在の計算スタイメトリー手法の信頼性と限界を理解することを目的としている。
歴史的調査から得られた検証済みの犯罪データは、検証目的では利用できないため、ユーザー人口を含むクリアウェブフォーラムから新しいデータを収集し、よりバランスのとれたユーザー人口を示すソーシャルメディアベンチマークデータセットよりも、ユーザー人口(例えば、技術コミュニティ)に関して地下のフォーラムとより密接な関係がある可能性がある。
関連論文リスト
- How Unique is Whose Web Browser? The role of demographics in browser fingerprinting among US users [50.699390248359265]
ブラウザのフィンガープリントは、クッキーを使わずとも、Web上のユーザを識別し、追跡するために利用できる。
この技術と結果として生じるプライバシーリスクは10年以上にわたって研究されてきた。
我々は、さらなる研究を可能にするファースト・オブ・ザ・キンド・データセットを提供する。
論文 参考訳(メタデータ) (2024-10-09T14:51:58Z) - Easy-access online social media metrics can effectively identify misinformation sharing users [41.94295877935867]
高いツイート頻度は共有コンテンツの事実性の低さと正に関連しているのに対し、アカウント年齢はそれと負に関連していることがわかった。
以上の結果から,これらのソーシャル・ネットワークの指標を頼りにすることで,誤情報を拡散しやすいユーザを早期に識別する,低障壁なアプローチが実現する可能性が示唆された。
論文 参考訳(メタデータ) (2024-08-27T16:41:13Z) - Differentially Private Data Release on Graphs: Inefficiencies and Unfairness [48.96399034594329]
本稿では,ネットワーク情報公開の文脈における偏見と不公平性に対する差別的プライバシの影響を特徴づける。
ネットワーク構造が全員に知られているネットワークリリースの問題を考えるが、エッジの重みをプライベートにリリースする必要がある。
我々の研究は、これらのネットワーク化された決定問題におけるプライバシーに起因する偏見と不公平性に関する理論的根拠と実証的な証拠を提供する。
論文 参考訳(メタデータ) (2024-08-08T08:37:37Z) - Protecting User Privacy in Online Settings via Supervised Learning [69.38374877559423]
我々は、教師付き学習を活用する、オンラインプライバシ保護に対するインテリジェントなアプローチを設計する。
ユーザのプライバシを侵害する可能性のあるデータ収集を検出してブロックすることにより、ユーザに対してある程度のディジタルプライバシを復元することが可能になります。
論文 参考訳(メタデータ) (2023-04-06T05:20:16Z) - Design and analysis of tweet-based election models for the 2021 Mexican
legislative election [55.41644538483948]
選挙日前の6ヶ月の間に、1500万件の選挙関連ツイートのデータセットを使用します。
地理的属性を持つデータを用いたモデルが従来のポーリング法よりも精度と精度で選挙結果を決定することがわかった。
論文 参考訳(メタデータ) (2023-01-02T12:40:05Z) - Detecting fake accounts through Generative Adversarial Network in online
social media [0.0]
本稿では,ユーザ類似度尺度とGANアルゴリズムを用いて,Twitterデータセット内の偽ユーザアカウントを識別する手法を提案する。
問題の複雑さにもかかわらず、この方法は偽アカウントの分類と検出において80%のAUCレートを達成する。
論文 参考訳(メタデータ) (2022-10-25T10:20:27Z) - Fast Few shot Self-attentive Semi-supervised Political Inclination
Prediction [12.472629584751509]
政策立案者やジャーナリストにとって、特定の場所にいる人々の政治的傾向を理解するために、ソーシャルメディア上でオンライン世論調査を作成することは、今やますます一般的になっている。
我々は、その目的をさらに進めるために、政治的傾き検出のための自己注意型半教師付きフレームワークを導入する。
資源制約のある設定でも,モデルは非常に効率的であることがわかった。
論文 参考訳(メタデータ) (2022-09-21T12:07:16Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Tackling Racial Bias in Automated Online Hate Detection: Towards Fair
and Accurate Classification of Hateful Online Users Using Geometric Deep
Learning [2.385774752937891]
本論文では, ソーシャルネットワーク情報を取り入れることで, より公平で正確なヘイトフルなユーザ検出システムの開発方法を検討する。
ジオメトリックディープラーニングは、情報豊富なネットワーク表現を動的に学習し、見えないノードに一般化することができる。
最も正確で公平な分類器を生成し、AUCのスコアはデータセット全体の90.8%である。
論文 参考訳(メタデータ) (2021-03-22T13:08:11Z) - Balancing Biases and Preserving Privacy on Balanced Faces in the Wild [50.915684171879036]
現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T15:05:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。