論文の概要: Know Your Intent: An Autonomous Multi-Perspective LLM Agent Framework for DeFi User Transaction Intent Mining
- arxiv url: http://arxiv.org/abs/2511.15456v1
- Date: Wed, 19 Nov 2025 14:15:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-20 15:51:28.836927
- Title: Know Your Intent: An Autonomous Multi-Perspective LLM Agent Framework for DeFi User Transaction Intent Mining
- Title(参考訳): インテントを知る: DeFi ユーザトランザクションインテントマイニングのための自律型多目的 LLM エージェントフレームワーク
- Authors: Qian'ang Mao, Yuxuan Zhang, Jiaman Chen, Wenjun Zhou, Jiaqi Yan,
- Abstract要約: 我々は、ユーザ意図を強く推測するTransaction Intent Miningフレームワークを提案する。
Meta-Level Plannerは、パースペクティブ固有のインテント分析を解決可能なサブタスクに分解する。
認知評価器は幻覚を緩和し、検証可能性を保証する。
- 参考スコア(独自算出の注目度): 8.12245672643707
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As Decentralized Finance (DeFi) develops, understanding user intent behind DeFi transactions is crucial yet challenging due to complex smart contract interactions, multifaceted on-/off-chain factors, and opaque hex logs. Existing methods lack deep semantic insight. To address this, we propose the Transaction Intent Mining (TIM) framework. TIM leverages a DeFi intent taxonomy built on grounded theory and a multi-agent Large Language Model (LLM) system to robustly infer user intents. A Meta-Level Planner dynamically coordinates domain experts to decompose multiple perspective-specific intent analyses into solvable subtasks. Question Solvers handle the tasks with multi-modal on/off-chain data. While a Cognitive Evaluator mitigates LLM hallucinations and ensures verifiability. Experiments show that TIM significantly outperforms machine learning models, single LLMs, and single Agent baselines. We also analyze core challenges in intent inference. This work helps provide a more reliable understanding of user motivations in DeFi, offering context-aware explanations for complex blockchain activity.
- Abstract(参考訳): DeFi(Decentralized Finance)が発展するにつれて、DeFiトランザクションの背後にあるユーザの意図を理解することは、複雑なスマートコントラクトのインタラクション、マルチフェイスオン/オフチェーンファクタ、不透明なヘックスログなど、非常に難しい。
既存の方法には深い意味的な洞察が欠けている。
これを解決するために、トランザクション・インテント・マイニング(TIM)フレームワークを提案する。
TIMは、基礎理論に基づくDeFiインテント分類とマルチエージェント大規模言語モデル(LLM)システムを利用して、ユーザの意図を強く推測する。
Meta-Level Plannerは、ドメインエキスパートを動的にコーディネートして、複数のパースペクティブ固有のインテント分析を解決可能なサブタスクに分解する。
Question Solversはマルチモーダルオン/オフチェーンデータでタスクを処理します。
認知評価器はLLM幻覚を緩和し、検証可能性を保証する。
実験の結果、TIMは機械学習モデル、単一LLM、単一エージェントベースラインを著しく上回ることがわかった。
また、意図推論における中核的な課題も分析します。
この作業は、DeFiにおけるユーザのモチベーションをより信頼性の高い理解を提供し、複雑なブロックチェーンアクティビティに対するコンテキスト対応の説明を提供する。
関連論文リスト
- Multi-Mission Tool Bench: Assessing the Robustness of LLM based Agents through Related and Dynamic Missions [12.218102495632937]
大規模言語モデル(LLM)は、高度な理解と計画能力のため、ツール呼び出しのエージェントとして強力な可能性を示している。
ベンチマークでは、各テストケースは複数の相互関連ミッションから構成される。
また,エージェント決定の精度と効率を動的決定木を用いて評価する手法を提案する。
論文 参考訳(メタデータ) (2025-04-03T14:21:33Z) - Scaling Autonomous Agents via Automatic Reward Modeling And Planning [52.39395405893965]
大規模言語モデル(LLM)は、様々なタスクにまたがる顕著な機能を示している。
しかし、彼らは多段階の意思決定と環境フィードバックを必要とする問題に苦戦している。
人間のアノテーションを使わずに環境から報酬モデルを自動的に学習できるフレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-17T18:49:25Z) - Online Intrinsic Rewards for Decision Making Agents from Large Language Model Feedback [52.763620660061115]
ONIは、RLポリシーと本質的な報酬関数を同時に学習する分散アーキテクチャである。
我々は、様々な複雑さを持つ報酬モデリングのためのアルゴリズムの選択範囲を探索する。
提案手法は,NetHack Learning Environment の様々な課題にまたがって,最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-10-30T13:52:43Z) - Towards Efficient LLM Grounding for Embodied Multi-Agent Collaboration [68.29746557968107]
本稿では,多エージェント協調のための新しいフレームワークを提案する。これは,効率的な自己調整のための強化アドバンテージフィードバック(Reinforced Advantage feedback, ReAd)を導入する。
Over-AIと難解なRoCoBenchの実験は、ReAdが成功率のベースラインを超え、エージェントの相互作用ステップを著しく減少させることを示している。
論文 参考訳(メタデータ) (2024-05-23T08:33:19Z) - mABC: multi-Agent Blockchain-Inspired Collaboration for root cause analysis in micro-services architecture [31.944353229461157]
マイクロサービスアーキテクチャ(mABC)における根本原因分析のための先駆的フレームワークであるマルチエージェント型コラボレーションを提案する。
mABCは、マイクロサービスアーキテクチャにおける包括的な自動化された根本原因分析と解決を提供し、ITオペレーションドメインを大幅に改善します。
論文 参考訳(メタデータ) (2024-04-18T12:35:39Z) - Towards Robust Multi-Modal Reasoning via Model Selection [7.6621866737827045]
LLMはエージェントの"脳"として機能し、協調的な多段階タスク解決のための複数のツールを編成する。
我々はテスト時に無視できるランタイムオーバーヘッドを持つプラグインとして、$textitM3$フレームワークを提案する。
実験の結果,我々のフレームワークは,ユーザ入力とサブタスク依存の両方を考慮した動的モデル選択を可能にすることがわかった。
論文 参考訳(メタデータ) (2023-10-12T16:06:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。