論文の概要: OMNIINTENT: A Trusted Intent-Centric Framework for User-Friendly Web3
- arxiv url: http://arxiv.org/abs/2603.04168v1
- Date: Wed, 04 Mar 2026 15:24:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-05 21:29:15.371475
- Title: OMNIINTENT: A Trusted Intent-Centric Framework for User-Friendly Web3
- Title(参考訳): OMNIINTENT: ユーザフレンドリーなWeb3のための信頼されたインテント中心フレームワーク
- Authors: Zhuoran Pan, Yue Li, Zhi Guan, Jianbin Hu, Zhong Chen,
- Abstract要約: Intent-Centric Financeを使用すると、ユーザは基本的な実行の詳細ではなく、取引意図に集中することができる。
我々はこれらの要件を調整した言語ランタイムの共同設計であるOMNIINTENTを提案する。
当社のフルスタックプロトタイプはさまざまなDeFiシナリオを処理し、89.6%のスループットカバレッジ、並列実行による7.3倍のスピードアップ、レイテンシの低い99.2%までの実現可能性予測精度を実現しています。
- 参考スコア(独自算出の注目度): 6.606052122056915
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The increasingly complex Web3 ecosystem and decentralized finance (DeFi) landscape demand ever higher levels of technical expertise and financial literacy from participants. The Intent-Centric paradigm in DeFi has thus emerged in response, which allows users to focus on their trading intents rather than the underlying execution details. However, existing approaches, including Typed-intent design and LLM-driven solver, trade off expressiveness, trust, privacy, and composability. We present OMNIINTENT, a language-runtime co-design that reconciles these requirements. OMNIINTENT introduces ICL, a domain-specific Intent-Centric Language for precise yet flexible specification of triggers, actions, and runtime constraints; a Trusted Execution Environment (TEE)-based compiler that compiles intents into signed, state-bound transactions inside an enclave; and an execution optimizer that constructs transaction dependency graphs for safe parallel batch submission and a mempool-aware feasibility checker that predicts execution outcomes. Our full-stack prototype processes diverse DeFi scenarios, achieving 89.6% intent coverage, up to 7.3x throughput speedup via parallel execution, and feasibility-prediction accuracy up to 99.2% with low latency.
- Abstract(参考訳): ますます複雑なWeb3エコシステムと分散金融(DeFi)ランドスケープ需要は、参加者からの技術的専門知識と金融リテラシーのレベルをさらに高めている。
したがって、DeFiのIntent-Centricパラダイムは、ユーザが基本的な実行の詳細ではなく、トレーディングインテントに集中できるように、応答として現れた。
しかし、Typed-intentデザインやLLM駆動の解決器を含む既存のアプローチでは、表現性、信頼、プライバシ、コンポーザビリティがトレードオフされている。
我々はこれらの要件を調整した言語ランタイムの共同設計であるOMNIINTENTを提案する。
OMNIINTENTはドメイン固有のIntent-Centric Languageで、トリガ、アクション、実行時の制約の正確かつ柔軟な仕様を記述できる。Trusted Execution Environment (TEE)ベースのコンパイラで、エンクレーブ内の署名付きステートバウンドトランザクションにインテントをコンパイルする。
当社のフルスタックプロトタイプはさまざまなDeFiシナリオを処理し、89.6%のインテントカバレッジ、並列実行によるスループットの7.3倍の高速化、99.2%の低レイテンシで実現可能な予測精度を実現しています。
関連論文リスト
- Accuracy-Delay Trade-Off in LLM Offloading via Token-Level Uncertainty [9.403735095944747]
大規模言語モデル(LLM)は、インテリジェントなモバイルサービスには大きな可能性を秘めているが、リソース制約のあるデバイスには計算集約的である。
モバイルエッジコンピューティング(MEC)は、そのようなデバイスがエッジサーバ(ES)に推論タスクをオフロードすることを可能にするが、通信とサーバサイドのキューによってレイテンシが生じる。
本稿では,ローカルで推論を行うか,ESにオフロードするかを動的に決定する不確実性を考慮したオフロードフレームワークを提案する。
論文 参考訳(メタデータ) (2026-02-08T13:03:03Z) - From Assumptions to Actions: Turning LLM Reasoning into Uncertainty-Aware Planning for Embodied Agents [5.817643726988822]
マルチエージェントで活動し、部分的に観察可能で、分散化された環境では、広範囲にわたる不確実性にもかかわらず計画し行動しなければならない。
我々は,大規模言語モデルで潜在する断片化仮定を構造化決定木に変換するPlanner-Composer-EvaluatorフレームワークであるPCEを紹介する。
また, PCEは, トークン使用率とタスク効率において, コミュニケーション中心のベースラインを一貫して上回り, トークン使用率と同等であることを示す。
論文 参考訳(メタデータ) (2026-02-04T08:43:39Z) - Autonomous Chain-of-Thought Distillation for Graph-Based Fraud Detection [73.9189065770752]
テキスト分散グラフ(TAG)上のグラフベースの不正検出には、リッチテキストセマンティクスとリレーショナル依存関係を共同でモデル化する必要がある。
我々は,自律型グラフ認識チェーン(CoT)推論とスケーラブルなLLM-GNN協調学習を通じて,TAGに基づく不正検出を促進する統一フレームワークであるFraudCoTを提案する。
論文 参考訳(メタデータ) (2026-01-30T13:12:12Z) - Should I Have Expressed a Different Intent? Counterfactual Generation for LLM-Based Autonomous Control [31.47957931665684]
大規模言語モデル(LLM)を利用したエージェントは、高レベルのユーザ意図を環境内の計画や行動に変換することができる。
本稿では,エージェント制御シナリオにおいて,そのような反実的推論を可能にするフレームワークを提案する。
論文 参考訳(メタデータ) (2026-01-27T22:18:57Z) - Ad Insertion in LLM-Generated Responses [16.434649348378706]
2つの切り離し戦略を通じて緊張を解消する実践的な枠組みを提案する。
まず、広告挿入と応答生成を分離し、安全性と明示的な開示を確保する。
次に、ジャンル'(ハイレベルなセマンティッククラスタ)をプロキシとして使用することで、特定のユーザクエリから入札を分離する。
論文 参考訳(メタデータ) (2026-01-27T10:16:03Z) - LoCoBench-Agent: An Interactive Benchmark for LLM Agents in Long-Context Software Engineering [90.84806758077536]
textbfLoCoBench-Agentは,大規模言語モデル(LLM)エージェントを現実的,長期的ソフトウェア工学で評価するための総合的な評価フレームワークである。
我々のフレームワークは、LoCoBenchの8000のシナリオを対話型エージェント環境に拡張し、マルチターン会話の体系的評価を可能にする。
我々のフレームワークは,8つの特殊なツール(ファイル操作,検索,コード解析)をエージェントに提供し,それを10Kから1Mトークンの範囲で評価する。
論文 参考訳(メタデータ) (2025-11-17T23:57:24Z) - Federated Attention: A Distributed Paradigm for Collaborative LLM Inference over Edge Networks [63.541114376141735]
大規模言語モデル(LLM)は、さまざまなアプリケーションシナリオにまたがってインテリジェントな機能を提供しながら、急速に普及しています。
しかし、彼らの共同シナリオにおける実践的なデプロイは、プライバシの脆弱性、通信オーバーヘッド、計算ボトルネックといった根本的な課題に直面します。
我々はフェデレート・アテンション(FedAttn)を提案し、フェデレーション・パラダイムを自己注意機構に統合する。
論文 参考訳(メタデータ) (2025-11-04T15:14:58Z) - Foundation Models for Logistics: Toward Certifiable, Conversational Planning Interfaces [59.80143393787701]
大規模言語モデル(LLM)は不確実性に対処し、導入障壁を低くしながら再計画の加速を約束する。
本稿では,自然言語対話のアクセシビリティと目標解釈の検証可能な保証とを組み合わせたニューロシンボリック・フレームワークを提案する。
わずか100個の不確実性フィルタで微調整された軽量モデルは、GPT-4.1のゼロショット性能を上回り、推論遅延を50%近く削減する。
論文 参考訳(メタデータ) (2025-07-15T14:24:01Z) - Federated Fine-Tuning of LLMs: Framework Comparison and Research Directions [59.5243730853157]
Federated Learning(FL)は、分散プライベートデータセットを使用して、トレーニング済みの大規模言語モデル(LLM)を微調整するための、プライバシ保護ソリューションを提供する。
本稿では、知識蒸留(KD)とスプリットラーニング(SL)を統合し、これらの問題を緩和する3つの先進的連合LLM(FedLLM)フレームワークの比較分析を行う。
論文 参考訳(メタデータ) (2025-01-08T11:37:06Z) - Adaptive Stream Processing on Edge Devices through Active Inference [5.5676731834895765]
アクティブ推論(AIF)に基づく新しい機械学習パラダイムを提案する。
AIFは、脳が長期的サプライズを減らすために感覚情報を常に予測し、評価する方法を記述している。
本手法は意思決定の完全透明性を保証し,結果の解釈とトラブルシューティングを無力化する。
論文 参考訳(メタデータ) (2024-09-26T15:12:41Z) - FamiCom: Further Demystifying Prompts for Language Models with Task-Agnostic Performance Estimation [73.454943870226]
言語モデルは、コンテキスト内学習能力に優れています。
本稿では,タスク非依存のパフォーマンス推定のためのより包括的な尺度であるFamiComを提案する。
論文 参考訳(メタデータ) (2024-06-17T06:14:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。