論文の概要: LAFA: Agentic LLM-Driven Federated Analytics over Decentralized Data Sources
- arxiv url: http://arxiv.org/abs/2510.18477v2
- Date: Thu, 30 Oct 2025 04:49:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-31 13:50:54.696907
- Title: LAFA: Agentic LLM-Driven Federated Analytics over Decentralized Data Sources
- Title(参考訳): LAFA: 分散データソース上のエージェントLLM駆動フェデレーション分析
- Authors: Haichao Ji, Zibo Wang, Cheng Pan, Meng Han, Yifei Zhu, Dan Wang, Zhu Han,
- Abstract要約: 大規模言語モデル(LLM)は、自然言語クエリを解釈することで、データ分析タスクを自動化するという大きな可能性を示しています。
既存のLLMベースの分析フレームワークは、集中型データアクセスの前提で運用されており、プライバシー保護はほとんど、あるいは全く提供されない。
LLMをベースとしたデータ分析とフェデレーション分析を統合した最初のシステムであるLAFAを提案する。
- 参考スコア(独自算出の注目度): 35.235993431071286
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) have shown great promise in automating data analytics tasks by interpreting natural language queries and generating multi-operation execution plans. However, existing LLM-agent-based analytics frameworks operate under the assumption of centralized data access, offering little to no privacy protection. In contrast, federated analytics (FA) enables privacy-preserving computation across distributed data sources, but lacks support for natural language input and requires structured, machine-readable queries. In this work, we present LAFA, the first system that integrates LLM-agent-based data analytics with FA. LAFA introduces a hierarchical multi-agent architecture that accepts natural language queries and transforms them into optimized, executable FA workflows. A coarse-grained planner first decomposes complex queries into sub-queries, while a fine-grained planner maps each subquery into a Directed Acyclic Graph of FA operations using prior structural knowledge. To improve execution efficiency, an optimizer agent rewrites and merges multiple DAGs, eliminating redundant operations and minimizing computational and communicational overhead. Our experiments demonstrate that LAFA consistently outperforms baseline prompting strategies by achieving higher execution plan success rates and reducing resource-intensive FA operations by a substantial margin. This work establishes a practical foundation for privacy-preserving, LLM-driven analytics that supports natural language input in the FA setting.
- Abstract(参考訳): 大規模言語モデル(LLM)は、自然言語クエリを解釈し、マルチオペレーション実行計画を生成することで、データ分析タスクを自動化することに大きな期待を示している。
しかし、既存のLLMベースの分析フレームワークは、集中型データアクセスの前提で運用されており、プライバシー保護はほとんど、あるいは全く提供されない。
対照的に、フェデレーション分析(FA)は、分散データソース間のプライバシ保護計算を可能にするが、自然言語入力をサポートしておらず、構造化された機械可読クエリを必要とする。
本研究では LLM-agent-based data analysis を FA と統合した最初のシステムである LAFA を提案する。
LAFAは階層的なマルチエージェントアーキテクチャを導入し、自然言語クエリを受け入れ、それらを最適化された実行可能なFAワークフローに変換する。
粗いプランナーがまず複雑なクエリをサブクエリに分解し、きめ細かいプランナーが各サブクエリを事前の構造知識を用いてFA操作の非巡回グラフにマップする。
実行効率を向上させるため、オプティマイザエージェントは複数のDAGを書き換え、マージし、冗長な操作を排除し、計算および通信オーバーヘッドを最小限にする。
実験の結果,LAFAは,実行計画の成功率の向上と資源集約型のFA運用の実質的なマージンの低減により,ベースライン促進戦略を一貫して上回っていることがわかった。
この研究は、FA設定における自然言語入力をサポートするプライバシー保護、LLM駆動分析の実践的基盤を確立する。
関連論文リスト
- LLM/Agent-as-Data-Analyst: A Survey [54.01326293336748]
大規模言語モデル(LLM)とデータ分析のためのエージェント技術は、学術と産業の両方に大きな影響を与えている。
この技術進化は、インテリジェントなデータ分析エージェントのための5つの重要な設計目標、すなわちセマンティック・アウェア・デザイン、ハイブリッド統合、自律パイプライン、ツールの拡張されたモダリティ、オープンワールドタスクのサポートをさらに強化する。
論文 参考訳(メタデータ) (2025-09-28T17:31:38Z) - FuDoBa: Fusing Document and Knowledge Graph-based Representations with Bayesian Optimisation [43.56253799373878]
本稿では,LLMに基づく埋め込みとドメイン固有の構造化知識を統合したベイズ最適化に基づくFuDoBaを紹介する。
この融合は、訓練の複雑さを減らし、解釈可能な早期融合重みを生み出すとともに、低次元のタスク関連表現を生成する。
2つの領域における6つのデータセットに対するアプローチの有効性を実証し、提案した表現学習アプローチが、プロプライエタリなLCMベースの埋め込みベースラインでのみ生成されるものと同程度に、あるいは超えていることを示す。
論文 参考訳(メタデータ) (2025-07-09T07:49:55Z) - Intelligent Assistants for the Semiconductor Failure Analysis with LLM-Based Planning Agents [1.2693545159861859]
失敗分析(FA)は、非常に複雑で知識集約的なプロセスである。
FAラボの計算インフラにおけるAIコンポーネントの統合は、さまざまなタスクを自動化する可能性がある。
本稿では,Large Language Model (LLM)-based Planning Agent (LPA) を用いた半導体FAのためのエージェントAIシステムの設計と実装について検討する。
論文 参考訳(メタデータ) (2025-06-18T15:43:10Z) - Large Language Models are Good Relational Learners [55.40941576497973]
本稿では,グラフニューラルネットワーク(GNN)に基づくエンコーダを用いて,大規模言語モデル(LLM)のための構造化リレーショナルプロンプトを生成する新しいアーキテクチャであるRel-LLMを紹介する。
従来のテキストベースのシリアライズ手法とは異なり,本手法はデータベース固有の関係構造を保ちながら,LLMが複雑なエンティティ関係を処理・推論することを可能にする。
論文 参考訳(メタデータ) (2025-06-06T04:07:55Z) - IDA-Bench: Evaluating LLMs on Interactive Guided Data Analysis [60.32962597618861]
IDA-Benchは、多ラウンドの対話シナリオで大規模言語モデルを評価する新しいベンチマークである。
エージェント性能は、最終的な数値出力と人間由来のベースラインを比較して判断する。
最先端のコーディングエージェント(Claude-3.7-thinkingなど)でさえ50%のタスクを成功させ、シングルターンテストでは明らかでない制限を強調している。
論文 参考訳(メタデータ) (2025-05-23T09:37:52Z) - System Log Parsing with Large Language Models: A Review [2.2779174914142346]
大規模言語モデル (LLM) はLLMに基づくログ解析の新しい研究分野を導入した。
有望な結果にもかかわらず、この比較的新しい研究分野におけるアプローチの構造化された概要は存在しない。
この研究は29 LLMベースのログ解析手法を体系的にレビューする。
論文 参考訳(メタデータ) (2025-04-07T09:41:04Z) - DocETL: Agentic Query Rewriting and Evaluation for Complex Document Processing [10.712756715779822]
大規模言語モデル(LLM)は、データ処理において有望であることを示している。
これらのフレームワークは、ユーザが指定した操作を実行する際のコスト削減に重点を置いている。
これは複雑なタスクやデータに問題があります。
本稿では,複雑な文書処理パイプラインを最適化するDocETLを提案する。
論文 参考訳(メタデータ) (2024-10-16T03:22:35Z) - FederatedScope-LLM: A Comprehensive Package for Fine-tuning Large
Language Models in Federated Learning [70.38817963253034]
本稿では, ファインチューニング LLM のこれらの課題について論じ, 本パッケージ FS-LLM を主な貢献として紹介する。
我々は、FLシナリオにおける将来の拡張のために、包括的フェデレーションパラメータ効率の良い微調整アルゴリズムの実装と汎用プログラミングインタフェースを提供する。
本研究では, FS-LLM の有効性を検証し, FL 設定におけるパラメータ効率の高いパラメータ調整アルゴリズムを用いて, 高度な LLM のベンチマークを行う。
論文 参考訳(メタデータ) (2023-09-01T09:40:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。