論文の概要: Sorting Out the Bad Seeds: Automatic Classification of Cryptocurrency Abuse Reports
- arxiv url: http://arxiv.org/abs/2410.21041v1
- Date: Mon, 28 Oct 2024 13:58:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-29 12:15:25.788332
- Title: Sorting Out the Bad Seeds: Automatic Classification of Cryptocurrency Abuse Reports
- Title(参考訳): 悪い種子を選別する:暗号通貨乱用レポートの自動分類
- Authors: Gibran Gomez, Kevin van Liebergen, Davide Sanvito, Giuseppe Siracusano, Roberto Gonzalez, Juan Caballero,
- Abstract要約: 本稿では,暗号通貨不正報告を自動的に分類する新しい手法を提案する。
まず、頻繁に報告される虐待の19の分類を作成した。
次に、大きな言語モデル(LLM)を使用して、テキストを解釈し、分類学で乱用タイプを割り当てます。
- 参考スコア(独自算出の注目度): 8.41409027960168
- License:
- Abstract: Abuse reporting services collect reports about abuse victims have suffered. Accurate classification of the submitted reports is fundamental to analyzing the prevalence and financial impact of different abuse types (e.g., sextortion, investment, romance). Current classification approaches are problematic because they require the reporter to select the abuse type from a list, assuming the reporter has the necessary experience for the classification, which we show is frequently not the case, or require manual classification by analysts, which does not scale. To address these issues, this paper presents a novel approach to classify cryptocurrency abuse reports automatically. We first build a taxonomy of 19 frequently reported abuse types. Given as input the textual description written by the reporter, our classifier leverages a large language model (LLM) to interpret the text and assign it an abuse type in our taxonomy. We collect 290K cryptocurrency abuse reports from two popular reporting services: BitcoinAbuse and BBB's ScamTracker. We build ground truth datasets for 20K of those reports and use them to evaluate three designs for our LLM-based classifier and four LLMs, as well as a supervised ML classifier used as a baseline. Our LLM-based classifier achieves a precision of 0.92, a recall of 0.87, and an F1 score of 0.89, compared to an F1 score of 0.55 for the baseline. We demonstrate our classifier in two applications: providing financial loss statistics for fine-grained abuse types and generating tagged addresses for cryptocurrency analysis platforms.
- Abstract(参考訳): 虐待報告サービスでは、被害者が苦しんでいるという報告を収集する。
提出された報告の正確な分類は、異なる虐待タイプ(例えば、性欲、投資、ロマンス)の有病率と金銭的影響を分析するのに不可欠である。
現在の分類手法は、レポーターがリストから乱用タイプを選択する必要があること、レポーターが分類に必要な経験を持っていることを前提にしていること、しばしばそうではないこと、あるいはスケールしないアナリストによる手動分類を必要とすること、などが問題となっている。
これらの問題に対処するために,暗号通貨乱用報告を自動的に分類する新しい手法を提案する。
まず、頻繁に報告される虐待の19の分類を作成した。
筆者らは,レポーターが書いたテキスト記述を入力として,大言語モデル(LLM)を利用してテキストを解釈し,分類学における乱用タイプを割り当てる。
BitcoinAbuseとBBBのScamTrackerという2つの人気のあるレポートサービスから、290万件の暗号通貨不正報告を収集しています。
我々は、これらのレポートの20Kに対して、基礎となる真理データセットを構築し、LLMベースの分類器と4つのLSMのための3つの設計と、ベースラインとして使用される教師付きML分類器の評価にそれらを使用します。
LLMベースの分類器は、ベースラインのF1スコアに比べて精度0.92、リコール0.87、F1スコア0.89を達成する。
我々の分類器を2つのアプリケーションで実証する: きめ細かい乱用タイプに対する財務損失統計を提供し、暗号分析プラットフォームのためのタグ付きアドレスを生成する。
関連論文リスト
- Co-training for Low Resource Scientific Natural Language Inference [65.37685198688538]
遠隔教師付きラベルに分類器のトレーニング力学に基づいて重みを割り当てる新しいコトレーニング手法を提案する。
予測された信頼度に対する任意のしきい値に基づいてサンプルをフィルタリングするのではなく、重要重みを割り当てることにより、自動ラベル付きデータの使用を最大化する。
提案手法は、遠隔監視ベースラインに対するマクロF1の1.5%の改善と、他の強力なSSLベースラインよりも大幅に改善されている。
論文 参考訳(メタデータ) (2024-06-20T18:35:47Z) - Unveiling Social Media Comments with a Novel Named Entity Recognition System for Identity Groups [2.5849042763002426]
我々はアイデンティティグループのための名前付きエンティティ認識(NER)システムを開発した。
我々のツールは、文が攻撃を含むかどうかを検知するだけでなく、上記のグループに対応する文トークンもタグ付けする。
ソーシャルメディアに関するケーススタディで,Facebookのコメントを注釈付けし,IDグループに言及するニュースに関連するコメントと比較し,ツールの有用性を検証した。
論文 参考訳(メタデータ) (2024-05-13T19:33:18Z) - LLMs Can Patch Up Missing Relevance Judgments in Evaluation [56.51461892988846]
我々は、大きな言語モデル(LLM)を使って、不確定な文書を自動的にラベル付けします。
TREC DLトラックの関連性判定から関連文書をランダムにドロップすることで,穴の度合いの異なるシナリオをシミュレートする。
Vicuna-7B と GPT-3.5 Turbo の平均値に対して,Kendall tau の0.87 と 0.92 の相関式が得られた。
論文 参考訳(メタデータ) (2024-05-08T00:32:19Z) - Understanding and Mitigating Spurious Correlations in Text
Classification with Neighborhood Analysis [69.07674653828565]
機械学習モデルは、トレーニングセットに存在するが一般的な状況では当てはまらない急激な相関を利用する傾向にある。
本稿では, 周辺分析と呼ばれる新しい視点から, 突発的相関がもたらす意味について考察する。
本稿では,テキスト分類における素早い相関を緩和する正規化手法であるNFL(doN't Forget your Language)を提案する。
論文 参考訳(メタデータ) (2023-05-23T03:55:50Z) - Interpretable Multi Labeled Bengali Toxic Comments Classification using
Deep Learning [0.0]
我々は16,073のインスタンスからなる手動ラベル付きデータセットを作成し,そのうち8,488がToxicである。
有毒なコメントは、ヴァルガー、ヘイト、宗教、脅威、トロル、侮辱の6つのカテゴリーのうちの1つ以上のものに対応する。
提案手法では,提案手法をLIME(Local Interpretable Model-Agnostic Explanations)フレームワークを用いた。
論文 参考訳(メタデータ) (2023-04-08T19:28:26Z) - Verifying the Robustness of Automatic Credibility Assessment [50.55687778699995]
入力テキストにおける意味保存的変化がモデルを誤解させる可能性があることを示す。
また、誤情報検出タスクにおける被害者モデルと攻撃方法の両方をテストするベンチマークであるBODEGAについても紹介する。
我々の実験結果によると、現代の大規模言語モデルは、以前のより小さなソリューションよりも攻撃に対して脆弱であることが多い。
論文 参考訳(メタデータ) (2023-03-14T16:11:47Z) - Automatic Classification of Bug Reports Based on Multiple Text
Information and Reports' Intention [37.67372105858311]
本稿では,バグレポートの自動分類手法を提案する。
イノベーションは、バグレポートを分類する際に、レポートのテキスト情報に加えて、レポートの意図も考慮することである。
提案手法は性能が向上し,F-Measureは87.3%から95.5%に向上した。
論文 参考訳(メタデータ) (2022-08-02T06:44:51Z) - Automatic Issue Classifier: A Transfer Learning Framework for
Classifying Issue Reports [0.0]
私たちはRoBERTaと呼ばれる既製のニューラルネットワークを使って、問題を分類しています。
本稿では,問題レポートを複数ラベル設定で分類するアプローチを提案する。我々はRoBERTaと呼ばれる市販のニューラルネットワークを用いて,問題レポートの分類を行う。
論文 参考訳(メタデータ) (2022-02-12T21:43:08Z) - Abuse is Contextual, What about NLP? The Role of Context in Abusive
Language Annotation and Detection [2.793095554369281]
我々は、メッセージの憎しみのあるコンテンツが文脈に基づいて判断されたときに何が起こるかを調べる。
英語における乱用言語検出のための広範に使用されるデータセットの一部を,まず2つの条件で再注釈した。
文脈を伴わない。
論文 参考訳(メタデータ) (2021-03-27T14:31:52Z) - Text Classification Using Label Names Only: A Language Model
Self-Training Approach [80.63885282358204]
現在のテキスト分類法は、訓練データとして多くの人ラベルの文書を必要とするのが一般的である。
本モデルでは,トピック分類や感情分類を含む4つのベンチマークデータセットにおいて,約90%の精度が得られた。
論文 参考訳(メタデータ) (2020-10-14T17:06:41Z) - CLARA: Clinical Report Auto-completion [56.206459591367405]
CLARA(CLinicit Al It Report It Auto-Completion)は、医師のアンカーワードと部分的に完成した文に基づいて、文章でレポートを生成するインタラクティブな方法である。
実験では,X線で0.393 CIDEr,0.248 BLEU-4,脳波で0.482 CIDEr,0.491 BLEU-4を得た。
論文 参考訳(メタデータ) (2020-02-26T18:45:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。