論文の概要: Large Language Models for Cryptocurrency Transaction Analysis: A Bitcoin Case Study
- arxiv url: http://arxiv.org/abs/2501.18158v3
- Date: Thu, 04 Sep 2025 07:46:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-05 14:03:58.644102
- Title: Large Language Models for Cryptocurrency Transaction Analysis: A Bitcoin Case Study
- Title(参考訳): 暗号通貨トランザクション分析のための大規模言語モデル:Bitcoinケーススタディ
- Authors: Yuchen Lei, Yuexin Xiang, Qin Wang, Rafael Dowsley, Tsz Hon Yuen, Kim-Kwang Raymond Choo, Jiangshan Yu,
- Abstract要約: 大規模言語モデル(LLM)はこれらのギャップに対処する可能性を秘めているが、この分野におけるそれらの能力はほとんど解明されていない。
本稿では,LLMを実世界の暗号トランザクショングラフに適用することにより,この仮説を検証する。
これには、新しい人間可読グラフ表現フォーマット、LLM4TG、接続強化トランザクショングラフサンプリングアルゴリズム、CETraSが含まれる。
- 参考スコア(独自算出の注目度): 31.329503543552864
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cryptocurrencies are widely used, yet current methods for analyzing transactions often rely on opaque, black-box models. While these models may achieve high performance, their outputs are usually difficult to interpret and adapt, making it challenging to capture nuanced behavioral patterns. Large language models (LLMs) have the potential to address these gaps, but their capabilities in this area remain largely unexplored, particularly in cybercrime detection. In this paper, we test this hypothesis by applying LLMs to real-world cryptocurrency transaction graphs, with a focus on Bitcoin, one of the most studied and widely adopted blockchain networks. We introduce a three-tiered framework to assess LLM capabilities: foundational metrics, characteristic overview, and contextual interpretation. This includes a new, human-readable graph representation format, LLM4TG, and a connectivity-enhanced transaction graph sampling algorithm, CETraS. Together, they significantly reduce token requirements, transforming the analysis of multiple moderately large-scale transaction graphs with LLMs from nearly impossible to feasible under strict token limits. Experimental results demonstrate that LLMs have outstanding performance on foundational metrics and characteristic overview, where the accuracy of recognizing most basic information at the node level exceeds 98.50% and the proportion of obtaining meaningful characteristics reaches 95.00%. Regarding contextual interpretation, LLMs also demonstrate strong performance in classification tasks, even with very limited labeled data, where top-3 accuracy reaches 72.43% with explanations. While the explanations are not always fully accurate, they highlight the strong potential of LLMs in this domain. At the same time, several limitations persist, which we discuss along with directions for future research.
- Abstract(参考訳): 暗号通貨は広く使われているが、トランザクションを分析する現在の方法は、しばしば不透明なブラックボックスモデルに依存している。
これらのモデルは高い性能を達成することができるが、その出力は通常解釈と適応が困難であり、微妙な振る舞いパターンを捉えることは困難である。
大規模言語モデル(LLM)は、これらのギャップに対処する可能性があるが、この領域におけるそれらの能力は、特にサイバー犯罪検出において、ほとんど探索されていないままである。
本稿では、この仮説を現実の暗号通貨取引グラフにLLMを適用し、最も研究され広く採用されているブロックチェーンネットワークの1つであるBitcoinに着目して検証する。
基礎的指標,特徴的概要,文脈的解釈という,LCMの能力を評価するための3層フレームワークを提案する。
これには、新しい人間可読グラフ表現フォーマット、LLM4TG、接続強化トランザクショングラフサンプリングアルゴリズム、CETraSが含まれる。
同時に、トークン要求を大幅に削減し、厳密なトークン制限の下では、LSMによる複数の中等度な大規模トランザクショングラフの分析をほぼ不可能から実現不可能に変換する。
実験結果から,LLMはノードレベルでの基本的な情報認識精度が98.50%を超え,有意な特性を得る割合が95.00%に達するという,基礎的指標と特徴的概要に優れた性能を示した。
文脈解釈に関して、LLMは分類タスクにおいて、非常に限定されたラベル付きデータであっても、説明とともにトップ3の精度が72.43%に達する強い性能を示す。
説明は必ずしも完全ではないものの、この領域におけるLSMの強い可能性を強調している。
同時に、いくつかの制限が持続し、今後の研究の方向性とともに議論する。
関連論文リスト
- Metaphor and Large Language Models: When Surface Features Matter More than Deep Understanding [6.0158981171030685]
本稿では,複数のデータセット,タスク,プロンプト構成にまたがるメタファ解釈において,LLM(Large Language Models)の能力を包括的に評価する。
推論とメタファアノテーションを備えた多種多様な公開データセットを用いて、広範な実験を行うことにより、これらの制限に対処する。
その結果,LLMの性能は比喩的内容よりも語彙的重複や文長などの特徴に影響されていることが示唆された。
論文 参考訳(メタデータ) (2025-07-21T08:09:11Z) - Machine Learning-Based Detection and Analysis of Suspicious Activities in Bitcoin Wallet Transactions in the USA [1.588234879488451]
この研究は、不正行為を露呈する傾向と傾向を識別する機能を備えたモデルを作成することを目的としている。
データセットは、詳細なBitcoinウォレットトランザクション情報で構成されている。
機械アルゴリズムの暗号追跡への応用は、透明でセキュアな米国市場を作るためのツールである。
論文 参考訳(メタデータ) (2025-04-04T00:07:32Z) - Training Large Recommendation Models via Graph-Language Token Alignment [53.3142545812349]
本稿では,グラフ言語トークンアライメントによる大規模推薦モデルのトレーニングを行う新しいフレームワークを提案する。
インタラクショングラフからアイテムとユーザノードを事前訓練されたLLMトークンにアライメントすることで、GLTAはLLMの推論能力を効果的に活用する。
さらに、エンドツーエンドのアイテム予測のためのトークンアライメントを最適化するために、GLLM(Graph-Language Logits Matching)を導入する。
論文 参考訳(メタデータ) (2025-02-26T02:19:10Z) - Traffic Light or Light Traffic? Investigating Phrasal Semantics in Large Language Models [41.233879429714925]
本研究は,フレーズ意味論を理解するためのAPIベースの大規模言語モデルの能力について批判的に考察する。
自然言語命令で指示されたフレーズ意味推論タスクの実行におけるLLMの性能を評価する。
句意味論の理解において, LLM が直面する制約を解釈するために, 詳細な誤り解析を行う。
論文 参考訳(メタデータ) (2024-10-03T08:44:17Z) - Zero-to-Strong Generalization: Eliciting Strong Capabilities of Large Language Models Iteratively without Gold Labels [75.77877889764073]
大規模言語モデル(LLM)は,ゴールドラベルを用いた教師付き微調整やテキスト内学習を通じて,顕著な性能を示した。
本研究では,ラベルのないデータのみを利用することで,強力なモデル機能を実現することができるかどうかを考察する。
ゼロ・ツー・ストロング一般化と呼ばれる新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2024-09-19T02:59:44Z) - Revisiting the Graph Reasoning Ability of Large Language Models: Case Studies in Translation, Connectivity and Shortest Path [53.71787069694794]
大規模言語モデル(LLM)のグラフ推論能力に着目する。
グラフ記述変換,グラフ接続,最短パス問題という3つの基本グラフタスクにおけるLLMの能力を再考する。
この結果から,LLMはテキスト記述によるグラフ構造理解に失敗し,これらの基本課題に対して様々な性能を示すことが可能であることが示唆された。
論文 参考訳(メタデータ) (2024-08-18T16:26:39Z) - Optimizing Language Model's Reasoning Abilities with Weak Supervision [48.60598455782159]
弱い教師付きベンチマークであるtextscPuzzleBen について,25,147 の複雑な質問,回答,人為的合理性からなる。
データセットのユニークな側面は、10,000の未注釈の質問を含めることであり、LLMの推論能力を高めるために、より少ないスーパーサイズのデータを活用することができる。
論文 参考訳(メタデータ) (2024-05-07T07:39:15Z) - Large Language Models Can Learn Temporal Reasoning [11.599570446840547]
本稿では,言語に基づく時間的推論のための新しいフレームワークTG-LLMを提案する。
元の文脈を推論する代わりに、潜時表現、時間グラフ(TG)を採用する。
合成データセット(TGQA)は完全に制御可能であり、最小限の監督を必要とする。
論文 参考訳(メタデータ) (2024-01-12T19:00:26Z) - IERL: Interpretable Ensemble Representation Learning -- Combining
CrowdSourced Knowledge and Distributed Semantic Representations [11.008412414253662]
大言語モデル(LLM)は、単語の意味を分散意味論の形でエンコードする。
近年の研究では、LLMは意図しない、一貫性のない、あるいは間違ったテキストを出力として生成する傾向があることが示されている。
本稿では,LLMとクラウドソースの知識表現を体系的に組み合わせた新しいアンサンブル学習手法であるInterpretable Ensemble Representation Learning (IERL)を提案する。
論文 参考訳(メタデータ) (2023-06-24T05:02:34Z) - Large Language Models Are Latent Variable Models: Explaining and Finding
Good Demonstrations for In-Context Learning [104.58874584354787]
近年,事前学習型大規模言語モデル (LLM) は,インコンテキスト学習(in-context learning)として知られる推論時少数ショット学習能力を実現する上で,顕著な効率性を示している。
本研究では,現実のLLMを潜在変数モデルとみなし,ベイズレンズによる文脈内学習現象を考察することを目的とする。
論文 参考訳(メタデータ) (2023-01-27T18:59:01Z) - Cryptocurrencies Activity as a Complex Network: Analysis of Transactions
Graphs [7.58432869763351]
我々は、複雑なネットワーク理論を通して、4つの顕著で異なる分散台帳技術(DLT)における相互作用のパターンを研究することによって、一定期間のデジタルトランザクションの流れを解析する。
DLTにおけるユーザインタラクションの理解のために,ネットワーク特性と特異性の研究が最重要であることを示す。
論文 参考訳(メタデータ) (2021-09-14T08:32:36Z) - Masked Language Modeling and the Distributional Hypothesis: Order Word
Matters Pre-training for Little [74.49773960145681]
マスク言語モデル(MLM)トレーニングの印象的なパフォーマンスの可能な説明は、そのようなモデルがNLPパイプラインで広く普及している構文構造を表現することを学びました。
本稿では,先行訓練がダウンストリームタスクでほぼ完全に成功する理由として,高次単語共起統計をモデル化できることを挙げる。
以上の結果から,純粋分布情報は,事前学習の成功を主に説明し,深い言語知識を必要とする難易度評価データセットのキュレーションの重要性を強調する。
論文 参考訳(メタデータ) (2021-04-14T06:30:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。