論文の概要: Beyond Relational: Semantic-Aware Multi-Modal Analytics with LLM-Native Query Optimization
- arxiv url: http://arxiv.org/abs/2511.19830v1
- Date: Tue, 25 Nov 2025 01:41:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-26 17:37:04.225735
- Title: Beyond Relational: Semantic-Aware Multi-Modal Analytics with LLM-Native Query Optimization
- Title(参考訳): Beyond Relational: LLM-Native Query Optimizationを用いた意味認識型マルチモーダル分析
- Authors: Junhao Zhu, Lu Chen, Xiangyu Ke, Ziquan Fang, Tianyi Li, Yunjun Gao, Christian S. Jensen,
- Abstract要約: Nirvanaは、プログラム可能なセマンティック演算子を組み込んだマルチモーダルデータ分析フレームワークである。
Nirvanaはエンドツーエンドのランタイムを10%から85%削減し、システム処理コストを平均で76%削減できる。
- 参考スコア(独自算出の注目度): 35.60979104539273
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-modal analytical processing has the potential to transform applications in e-commerce, healthcare, entertainment, and beyond. However, real-world adoption remains elusive due to the limited ability of traditional relational query operators to capture query semantics. The emergence of foundation models, particularly the large language models (LLMs), opens up new opportunities to develop flexible, semantic-aware data analytics systems that transcend the relational paradigm. We present Nirvana, a multi-modal data analytics framework that incorporates programmable semantic operators while leveraging both logical and physical query optimization strategies, tailored for LLM-driven semantic query processing. Nirvana addresses two key challenges. First, it features an agentic logical optimizer that uses natural language-specified transformation rules and random-walk-based search to explore vast spaces of semantically equivalent query plans -- far beyond the capabilities of conventional optimizers. Second, it introduces a cost-aware physical optimizer that selects the most effective LLM backend for each operator using a novel improvement-score metric. To further enhance efficiency, Nirvana incorporates computation reuse and evaluation pushdown techniques guided by model capability hypotheses. Experimental evaluations on three real-world benchmarks demonstrate that Nirvana is able to reduce end-to-end runtime by 10%--85% and reduces system processing costs by 76% on average, outperforming state-of-the-art systems at both efficiency and scalability.
- Abstract(参考訳): マルチモーダル分析処理は、電子商取引、ヘルスケア、エンターテイメントなどにおけるアプリケーションを変革する可能性がある。
しかし、従来のリレーショナルクエリオペレーターがクエリのセマンティクスをキャプチャする能力に制限があるため、実世界の採用は依然として明白である。
基礎モデルの出現、特に大きな言語モデル(LLM)は、リレーショナルパラダイムを超越したフレキシブルでセマンティックなデータ分析システムを開発する新たな機会を開く。
プログラム可能なセマンティック演算子を組み込んだマルチモーダルデータ分析フレームワークであるNirvanaについて述べる。
Nirvana氏は2つの課題に対処する。
まず、自然言語固有の変換ルールとランダムウォークベースの検索を使用して、意味論的に等価なクエリプランの広大なスペースを探索するエージェント論理最適化を特徴とする。
第二に、コストを意識した物理オプティマイザを導入し、新しい改善スコアメトリックを使用して、各演算子に対して最も効果的なLLMバックエンドを選択する。
効率をさらに高めるため、Nirvanaは計算再利用とモデル能力仮説によって導かれる評価プッシュダウン技術を導入している。
3つの実世界のベンチマークでの実験的な評価によると、Nirvanaはエンドツーエンドのランタイムを10%から85%削減し、システム処理コストを平均で76%削減し、効率とスケーラビリティの両方で最先端のシステムを実現している。
関連論文リスト
- LLM-guided Chemical Process Optimization with a Multi-Agent Approach [8.714038047141202]
本稿では,最小限のプロセス記述から動作制約を自律的に推論するマルチエージェントLLMフレームワークを提案する。
当社のAutoGenベースのフレームワークは、制約生成、パラメータ検証、シミュレーション、最適化ガイダンスのための特別なエージェントを備えたOpenAIのo3モデルを採用しています。
論文 参考訳(メタデータ) (2025-06-26T01:03:44Z) - ORFS-agent: Tool-Using Agents for Chip Design Optimization [0.8088986164437757]
大規模言語モデル(LLM)は、このような高次元最適化タスク内で学習と推論を行う新しい機会を提供する。
LLMをベースとした反復最適化エージェントORFS-agentを導入し,パラメータチューニングをオープンソースのハードウェア設計フローで自動化する。
2つの異なる技術ノードと様々な回路ベンチマークに関する実証的な評価は、ORFSエージェントがルーティングされたワイヤ長と有効クロック期間の両方を13%以上改善できることを示している。
論文 参考訳(メタデータ) (2025-06-10T01:38:57Z) - A Survey on the Optimization of Large Language Model-based Agents [16.733092886211097]
大規模言語モデル(LLM)は様々な分野で広く採用されており、自律的な意思決定や対話的なタスクに欠かせないものとなっている。
しかしながら、現在の作業は通常、バニラLLMに適用された迅速な設計や微調整戦略に依存している。
LLMに基づくエージェント最適化手法の総合的なレビューを行い、パラメータ駆動型およびパラメータフリーな手法に分類する。
論文 参考訳(メタデータ) (2025-03-16T10:09:10Z) - LREF: A Novel LLM-based Relevance Framework for E-commerce [14.217396055372053]
本稿では,eコマース検索の妥当性を高めることを目的とした,LREF(LLM-based Relevance Framework)と呼ばれる新しいフレームワークを提案する。
大規模な実世界のデータセットのオフライン実験やオンラインA/Bテストを通じて,フレームワークの性能を評価する。
このモデルは有名なeコマースアプリケーションにデプロイされ、かなりの商業的利益をもたらした。
論文 参考訳(メタデータ) (2025-03-12T10:10:30Z) - Federated Fine-Tuning of LLMs: Framework Comparison and Research Directions [59.5243730853157]
Federated Learning(FL)は、分散プライベートデータセットを使用して、トレーニング済みの大規模言語モデル(LLM)を微調整するための、プライバシ保護ソリューションを提供する。
本稿では、知識蒸留(KD)とスプリットラーニング(SL)を統合し、これらの問題を緩和する3つの先進的連合LLM(FedLLM)フレームワークの比較分析を行う。
論文 参考訳(メタデータ) (2025-01-08T11:37:06Z) - Optima: Optimizing Effectiveness and Efficiency for LLM-Based Multi-Agent System [75.25394449773052]
大規模言語モデル (LLM) に基づくマルチエージェントシステム (MAS) は協調的問題解決において顕著な可能性を示している。
通信効率の低下、スケーラビリティの低下、効果的なパラメータ更新方法の欠如などです。
本稿では,コミュニケーション効率とタスク効率を両立させ,これらの課題に対処する新しいフレームワークOptimaを提案する。
論文 参考訳(メタデータ) (2024-10-10T17:00:06Z) - Query-Dependent Prompt Evaluation and Optimization with Offline Inverse
RL [62.824464372594576]
ゼロショットプロンプト最適化により,Large Language Models (LLM) の算術的推論能力を向上させることを目的とする。
このような最適化では、以前見過ごされたクエリ依存の目的を特定します。
本稿では、オフライン逆強化学習を利用して、実演データから洞察を引き出すPrompt-OIRLを紹介する。
論文 参考訳(メタデータ) (2023-09-13T01:12:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。