論文の概要: MICRO: A Lightweight Middleware for Optimizing Cross-store Cross-model Graph-Relation Joins [Technical Report]
- arxiv url: http://arxiv.org/abs/2603.13835v1
- Date: Sat, 14 Mar 2026 08:41:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.435429
- Title: MICRO: A Lightweight Middleware for Optimizing Cross-store Cross-model Graph-Relation Joins [Technical Report]
- Title(参考訳): MICRO: クロスストア・クロスモデルグラフ関連結合を最適化するための軽量ミドルウェア [in Japanese]
- Authors: Xiuwen Zheng, Arun Kumar, Amarnath Gupta,
- Abstract要約: 本稿では,グラフストアとリレーショナルストア間のクロスモデル結合クエリのクラスを正式に定義する。
MICROの中核であるCMLeroは、正確なコスト見積を必要とせずに効率的な実行計画を選択する学習からランクベースのクエリである。
- 参考スコア(独自算出の注目度): 2.391637233634213
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modern data applications increasingly involve heterogeneous data managed in different models and stored across disparate database engines, often deployed as separate installs. Limited research has addressed cross-model query processing in federated environments. This paper takes a step toward bridging this gap by: (1) formally defining a class of cross-model join queries between a graph store and a relational store by proposing a unified algebra; (2) introducing one real-world benchmark and four semi-synthetic benchmarks to evaluate such queries; and (3) proposing a lightweight middleware, MICRO, for efficient query execution. At the core of MICRO is CMLero, a learning-to-rank-based query optimizer that selects efficient execution plans without requiring exact cost estimation. By avoiding the need to materialize or convert all data into a single model, which is often infeasible due to third-party data control or cost, MICRO enables native querying across heterogeneous systems. Experimental results on the benchmark workloads demonstrate that MICRO outperforms the state-of-the-art federated relational system XDB by up to 2.1x in total runtime across the full test set. On the 93 test queries of real-world benchmark, 14 queries achieve over 100 speedup, including 4 queries with more than 100x speedup; however, 4 queries experienced slowdowns of over 5 seconds, highlighting opportunities for future improvement of MICRO. Further comparisons show that CMLero consistently outperforms rule-based and regression-based optimizers, highlighting the advantage of learning-to-rank in complex cross-model optimization.
- Abstract(参考訳): 現代のデータアプリケーションは、異なるモデルで管理され、異なるデータベースエンジンにまたがって格納される異種データが多くなり、しばしば別々のインストールとしてデプロイされる。
限定的な研究は、フェデレートされた環境でのクロスモデルクエリ処理に対処している。
本稿では,(1) グラフストアとリレーショナルストア間の相互結合クエリのクラスを,統一代数学を用いて正式に定義すること,(2) それらのクエリを評価するために,実世界のベンチマークと4つの半合成ベンチマークを導入すること,(3) 軽量ミドルウェアであるMICROを,効率的なクエリ実行のために提案すること,により,このギャップを埋めることを目指す。
MICROのコアとなるCMLeroは、学習からランクベースのクエリオプティマイザで、正確なコスト見積を必要とせずに効率的な実行計画を選択する。
サードパーティのデータ制御やコストのためにしばしば実現不可能な単一モデルに、すべてのデータを実体化あるいは変換する必要がなくなるため、MICROは異種システム間のネイティブクエリを可能にする。
ベンチマークの負荷実験の結果、MICROは全テストセットの合計ランタイムにおいて、最先端のフェデレーション付きリレーショナルシステムXDBを最大2.1倍上回っていることが示された。
実際のベンチマークの93のテストクエリでは、100倍以上のスピードアップを持つ4つのクエリを含む14のクエリが100以上のスピードアップを達成したが、4つのクエリは5秒以上のスローダウンを経験し、将来のMICROの改善の機会を強調した。
さらに比較すると、CMLeroはルールベースと回帰ベースの最適化を一貫して上回り、複雑なクロスモデル最適化における学習からランクへの利点を強調している。
関連論文リスト
- Divide, then Ground: Adapting Frame Selection to Query Types for Long-Form Video Understanding [21.18266593437182]
そこで本研究では,クエリタイプに基づいた学習自由なフレーム選択フレームワークを提案する。
3つの長いビデオ理解ベンチマークの実験は、DIGが既存のベースラインを一貫して上回っていることを示している。
論文 参考訳(メタデータ) (2025-12-03T17:36:06Z) - HuggingR$^{4}$: A Progressive Reasoning Framework for Discovering Optimal Model Companions [50.61510609116118]
HuggingR$4$は、Reasoning、Retrieval、Refinement、Reflectionを組み合わせて効率的にモデルを選択する新しいフレームワークである。
作業性率は92.03%、理性率は82.46%に達し、それぞれ26.51%、33.25%を超える。
論文 参考訳(メタデータ) (2025-11-24T03:13:45Z) - MuaLLM: A Multimodal Large Language Model Agent for Circuit Design Assistance with Hybrid Contextual Retrieval-Augmented Generation [0.0]
MuaLLMは、回路設計支援のためのオープンソースのマルチモーダル大規模言語モデル(LLM)エージェントである。
ハイブリッドなRetrieval-Augmented Generationフレームワークと、回路設計研究論文の適応ベクトルデータベースを統合する。
質問応答設計アシスタントとして機能し、複雑なクエリを解釈し、合理的な応答を提供する。
論文 参考訳(メタデータ) (2025-08-11T16:11:09Z) - FusionFactory: Fusing LLM Capabilities with Multi-LLM Log Data [60.09659670497899]
大規模言語モデル(LLM)は、さまざまなモデルのランドスケープを持ち、それぞれが異なるタスクで優れています。
この多様性は、研究者に複数のLLMを実際に採用させ、貴重なマルチLLMログデータを残します。
1)実世界のサービスシナリオ(例えば、ローカルおよびAPIベースのサービス)との互換性と、(2)様々なユーザニーズを満たすためにLLMパイプラインの異なる段階での運用の柔軟性である。
論文 参考訳(メタデータ) (2025-07-14T17:58:02Z) - Aligning Web Query Generation with Ranking Objectives via Direct Preference Optimization [21.140086066964667]
本稿では,クエリ生成プロセスにランキング信号を統合するフレームワークを提案する。
実験の結果,DPO後の問合せと文書の相互関係は高く評価された。
論文 参考訳(メタデータ) (2025-05-25T20:34:12Z) - Reinforced Model Merging [53.84354455400038]
本稿では,タスク統合に適した環境とエージェントを含むRMM(Reinforced Model Merging)という,革新的なフレームワークを提案する。
評価プロセス中にデータサブセットを利用することで、報酬フィードバックフェーズのボトルネックに対処し、RMMを最大100倍高速化する。
論文 参考訳(メタデータ) (2025-03-27T08:52:41Z) - CART: A Generative Cross-Modal Retrieval Framework with Coarse-To-Fine Semantic Modeling [53.97609687516371]
クロスモーダル検索は、異なるモーダルデータの相互作用を通じて、クエリと意味的に関連するインスタンスを検索することを目的としている。
従来のソリューションでは、クエリと候補の間のスコアを明示的に計算するために、シングルトウワーまたはデュアルトウワーのフレームワークを使用している。
粗大なセマンティックモデリングに基づく生成的クロスモーダル検索フレームワーク(CART)を提案する。
論文 参考訳(メタデータ) (2024-06-25T12:47:04Z) - JoinGym: An Efficient Query Optimization Environment for Reinforcement
Learning [58.71541261221863]
結合順序選択(JOS)は、クエリの実行コストを最小化するために結合操作を順序付けする問題である。
木質強化学習(RL)のためのクエリ最適化環境JoinGymを提案する。
JoinGymは内部で、事前計算されたデータセットから中間結果の濃度を調べることで、クエリプランのコストをシミュレートする。
論文 参考訳(メタデータ) (2023-07-21T17:00:06Z) - Approximating Aggregated SQL Queries With LSTM Networks [31.528524004435933]
本稿では、近似クエリ処理(AQP)とも呼ばれるクエリ近似法を提案する。
我々は、LSTMネットワークを用いて、クエリと結果の関係を学習し、クエリ結果を予測するための高速な推論層を提供する。
提案手法では,1秒間に最大12万のクエリを予測でき,クエリのレイテンシは2ms以下であった。
論文 参考訳(メタデータ) (2020-10-25T16:17:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。