論文の概要: Large Language Models for Cryptocurrency Transaction Analysis: A Bitcoin Case Study
- arxiv url: http://arxiv.org/abs/2501.18158v2
- Date: Mon, 03 Feb 2025 10:45:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-04 12:43:30.104622
- Title: Large Language Models for Cryptocurrency Transaction Analysis: A Bitcoin Case Study
- Title(参考訳): 暗号通貨トランザクション分析のための大規模言語モデル:Bitcoinケーススタディ
- Authors: Yuchen Lei, Yuexin Xiang, Qin Wang, Rafael Dowsley, Tsz Hon Yuen, Jiangshan Yu,
- Abstract要約: LLM(Large Language Models)機能を評価するための3層フレームワークを紹介します。
LLMは基礎的な指標に優れ、詳細な特徴的概要を提供する。
文脈解釈におけるそれらの有効性は、トランザクションの振る舞いに関する有益な説明を提供することができることを示唆している。
- 参考スコア(独自算出の注目度): 9.257058992607147
- License:
- Abstract: Cryptocurrencies are widely used, yet current methods for analyzing transactions heavily rely on opaque, black-box models. These lack interpretability and adaptability, failing to effectively capture behavioral patterns. Many researchers, including us, believe that Large Language Models (LLMs) could bridge this gap due to their robust reasoning abilities for complex tasks. In this paper, we test this hypothesis by applying LLMs to real-world cryptocurrency transaction graphs, specifically within the Bitcoin network. We introduce a three-tiered framework to assess LLM capabilities: foundational metrics, characteristic overview, and contextual interpretation. This includes a new, human-readable graph representation format, LLM4TG, and a connectivity-enhanced sampling algorithm, CETraS, which simplifies larger transaction graphs. Experimental results show that LLMs excel at foundational metrics and offer detailed characteristic overviews. Their effectiveness in contextual interpretation suggests they can provide useful explanations of transaction behaviors, even with limited labeled data.
- Abstract(参考訳): 暗号通貨は広く使われているが、トランザクションを分析する現在の方法は不透明なブラックボックスモデルに大きく依存している。
これらは解釈可能性と適応性に欠け、行動パターンを効果的に捉えられなかった。
私たちを含む多くの研究者は、複雑なタスクに対する堅牢な推論能力のために、LLM(Large Language Models)がこのギャップを埋めると考えている。
本稿では,LLMを現実の暗号通貨取引グラフ,特にビットコインネットワークに応用することで,この仮説を検証する。
基礎的指標,特徴的概要,文脈的解釈という,LCMの能力を評価するための3層フレームワークを提案する。
これには、新しい人間可読グラフ表現フォーマット、LLM4TG、より大きなトランザクショングラフを単純化する接続強化サンプリングアルゴリズムであるCETraSが含まれる。
実験結果から, LLMは基礎的指標に優れ, より詳細な特徴的概要が得られた。
文脈解釈におけるそれらの有効性は、限定されたラベル付きデータであっても、トランザクションの振る舞いに関する有用な説明を提供することができることを示唆している。
関連論文リスト
- Traffic Light or Light Traffic? Investigating Phrasal Semantics in Large Language Models [41.233879429714925]
本研究は,フレーズ意味論を理解するためのAPIベースの大規模言語モデルの能力について批判的に考察する。
自然言語命令で指示されたフレーズ意味推論タスクの実行におけるLLMの性能を評価する。
句意味論の理解において, LLM が直面する制約を解釈するために, 詳細な誤り解析を行う。
論文 参考訳(メタデータ) (2024-10-03T08:44:17Z) - Zero-to-Strong Generalization: Eliciting Strong Capabilities of Large Language Models Iteratively without Gold Labels [75.77877889764073]
大規模言語モデル(LLM)は,ゴールドラベルを用いた教師付き微調整やテキスト内学習を通じて,顕著な性能を示した。
本研究では,ラベルのないデータのみを利用することで,強力なモデル機能を実現することができるかどうかを考察する。
ゼロ・ツー・ストロング一般化と呼ばれる新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2024-09-19T02:59:44Z) - Ethereum Fraud Detection via Joint Transaction Language Model and Graph Representation Learning [6.378807038086552]
現在の不正検出方法は、トランザクション内の意味情報や類似性パターンを考慮できない。
本稿では,トランザクション言語モデルとグラフベースの手法を組み合わせたTLMG4Ethを提案する。
論文 参考訳(メタデータ) (2024-09-09T07:13:44Z) - Revisiting the Graph Reasoning Ability of Large Language Models: Case Studies in Translation, Connectivity and Shortest Path [53.71787069694794]
大規模言語モデル(LLM)のグラフ推論能力に着目する。
グラフ記述変換,グラフ接続,最短パス問題という3つの基本グラフタスクにおけるLLMの能力を再考する。
この結果から,LLMはテキスト記述によるグラフ構造理解に失敗し,これらの基本課題に対して様々な性能を示すことが可能であることが示唆された。
論文 参考訳(メタデータ) (2024-08-18T16:26:39Z) - Optimizing Language Model's Reasoning Abilities with Weak Supervision [48.60598455782159]
弱い教師付きベンチマークであるtextscPuzzleBen について,25,147 の複雑な質問,回答,人為的合理性からなる。
データセットのユニークな側面は、10,000の未注釈の質問を含めることであり、LLMの推論能力を高めるために、より少ないスーパーサイズのデータを活用することができる。
論文 参考訳(メタデータ) (2024-05-07T07:39:15Z) - CoAnnotating: Uncertainty-Guided Work Allocation between Human and Large
Language Models for Data Annotation [94.59630161324013]
本稿では,非構造化テキストの大規模共同アノテーションのための新しいパラダイムであるCoAnnotatingを提案する。
我々の実証研究は、CoAnnotatingが、異なるデータセット上の結果から作業を割り当てる効果的な手段であることを示し、ランダムベースラインよりも最大21%のパフォーマンス改善を実現している。
論文 参考訳(メタデータ) (2023-10-24T08:56:49Z) - IERL: Interpretable Ensemble Representation Learning -- Combining
CrowdSourced Knowledge and Distributed Semantic Representations [11.008412414253662]
大言語モデル(LLM)は、単語の意味を分散意味論の形でエンコードする。
近年の研究では、LLMは意図しない、一貫性のない、あるいは間違ったテキストを出力として生成する傾向があることが示されている。
本稿では,LLMとクラウドソースの知識表現を体系的に組み合わせた新しいアンサンブル学習手法であるInterpretable Ensemble Representation Learning (IERL)を提案する。
論文 参考訳(メタデータ) (2023-06-24T05:02:34Z) - Large Language Models Are Latent Variable Models: Explaining and Finding
Good Demonstrations for In-Context Learning [104.58874584354787]
近年,事前学習型大規模言語モデル (LLM) は,インコンテキスト学習(in-context learning)として知られる推論時少数ショット学習能力を実現する上で,顕著な効率性を示している。
本研究では,現実のLLMを潜在変数モデルとみなし,ベイズレンズによる文脈内学習現象を考察することを目的とする。
論文 参考訳(メタデータ) (2023-01-27T18:59:01Z) - Cryptocurrencies Activity as a Complex Network: Analysis of Transactions
Graphs [7.58432869763351]
我々は、複雑なネットワーク理論を通して、4つの顕著で異なる分散台帳技術(DLT)における相互作用のパターンを研究することによって、一定期間のデジタルトランザクションの流れを解析する。
DLTにおけるユーザインタラクションの理解のために,ネットワーク特性と特異性の研究が最重要であることを示す。
論文 参考訳(メタデータ) (2021-09-14T08:32:36Z) - Masked Language Modeling and the Distributional Hypothesis: Order Word
Matters Pre-training for Little [74.49773960145681]
マスク言語モデル(MLM)トレーニングの印象的なパフォーマンスの可能な説明は、そのようなモデルがNLPパイプラインで広く普及している構文構造を表現することを学びました。
本稿では,先行訓練がダウンストリームタスクでほぼ完全に成功する理由として,高次単語共起統計をモデル化できることを挙げる。
以上の結果から,純粋分布情報は,事前学習の成功を主に説明し,深い言語知識を必要とする難易度評価データセットのキュレーションの重要性を強調する。
論文 参考訳(メタデータ) (2021-04-14T06:30:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。