論文の概要: DSL-R1: From SQL to DSL for Training Retrieval Agents across Structured and Unstructured Data with Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2603.21018v1
- Date: Wed, 14 Jan 2026 02:04:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-04-06 02:36:12.963249
- Title: DSL-R1: From SQL to DSL for Training Retrieval Agents across Structured and Unstructured Data with Reinforcement Learning
- Title(参考訳): DSL-R1: 強化学習による構造化データと非構造化データにわたる検索エージェントのトレーニングのためのSQLからDSLへ
- Authors: Yunhai Hu, Junwei Zhou, Yumo Cao, Yitao Long, Yiwei Xu, Qiyi Jiang, Weiyao Wang, Xiaoyu Cao, Zhen Sun, Yiran Zou, Nan Du,
- Abstract要約: DSL-R1は、論理的推論とセマンティックマッチングを相乗化する統合フレームワークである。
本稿では,ルールベースの実行フィードバックと検索品質報酬を併用してDSL生成を最適化する強化学習機構を提案する。
- 参考スコア(独自算出の注目度): 16.922690739842654
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Effective retrieval in complex domains requires bridging the gap between structured metadata and unstructured content. Existing systems typically isolate these capabilities, relying on either symbolic filtering or vector similarity, failing to capture their interplay. In this work, we propose DSL-R1, a unified framework that synergizes logical reasoning with semantic matching via a novel Domain-Specific Language (DSL). By embedding vector primitives within SQL-style operators, our approach leverages the complementary strengths of symbolic precision and semantic coverage. We further introduce a reinforcement learning mechanism where rule-based execution feedback and retrieval quality rewards jointly optimize the DSL generation, balancing structural correctness and semantic alignment. Evaluations on a large-scale industrial email benchmark demonstrate that DSL-R1 achieves a +12.3% improvement in Hit@1/3, consistently outperforming decoupled baselines and establishing a robust paradigm for hybrid retrieval.
- Abstract(参考訳): 複雑な領域における効果的な検索には、構造化メタデータと非構造化コンテンツの間のギャップを埋める必要がある。
既存のシステムは典型的にはこれらの機能を分離し、シンボリックフィルタリングまたはベクトル類似性に依存し、それらの相互作用を捉えない。
本稿では、新しいドメイン特化言語(DSL)を介して論理的推論とセマンティックマッチングを相乗化する統合フレームワークであるDSL-R1を提案する。
SQLスタイルの演算子にベクトルプリミティブを埋め込むことで,シンボル精度と意味的カバレッジの相補的強みを活用する。
さらに、ルールベースの実行フィードバックと検索品質報酬がDSL生成を協調的に最適化し、構造的正当性とセマンティックアライメントのバランスをとる強化学習機構を導入する。
大規模産業メールベンチマークの評価によると、DSL-R1はHit@1/3で+12.3%改善し、非結合ベースラインを一貫して上回り、ハイブリッド検索のための堅牢なパラダイムを確立している。
関連論文リスト
- Agentic DAG-Orchestrated Planner Framework for Multi-Modal, Multi-Hop Question Answering in Hybrid Data Lakes [5.276278723196607]
Agentic DAG-Orchestrated Transformer (A.DOT) Plannerはマルチモーダル・マルチホップ質問応答のためのフレームワークである。
A.DOTは、ユーザNLクエリを構造化および非構造化の両方にまたがる有向非巡回グラフ(DAG)実行計画にコンパイルする。
System Decomposes query into parallelizable sub-queries, includess schema-aware reasoning, and applied both structure and semantic validation。
論文 参考訳(メタデータ) (2026-03-15T05:34:16Z) - Relatron: Automating Relational Machine Learning over Relational Databases [50.94254514286021]
本稿では, RDL と DFS を共有設計空間に統合し, 多様な RDB タスクを対象としたアーキテクチャ中心の検索を行う。
RDLはDFSを一貫して上回り、高いタスク依存性を持つ。(2)タスク全体において単一のアーキテクチャが支配的であり、タスク認識モデル選択の必要性を強調し、精度は選択アーキテクチャの信頼性の低いガイドである。
論文 参考訳(メタデータ) (2026-02-26T02:45:22Z) - NGDB-Zoo: Towards Efficient and Scalable Neural Graph Databases Training [55.35217340229661]
NGDB-Zooは,演算子レベルのトレーニングをセマンティック拡張と相乗化することでボトルネックを解消する統合フレームワークである。
NGDB-Zooは多種多様な論理パターンにまたがって高いGPU利用率を維持し, ハイブリッド型ニューロシンボリック推論における摩擦を著しく軽減することを示した。
論文 参考訳(メタデータ) (2026-02-25T05:46:42Z) - DynaQuery: A Self-Adapting Framework for Querying Structured and Multimodal Data [0.0]
構造化されていないデータを問合せするための統合された自己適応フレームワークであるDynaQueryを紹介します。
DynaQueryの中心にIntrospection and Linking Engine (SILE)がある。これは、スキーマリンクをファーストクラスのクエリ計画フェーズに高める新しいシステムプリミティブである。
我々の研究は、堅牢で適応性があり、予測可能である自然言語データベースインタフェースを開発するための検証済みのアーキテクチャ基盤を提供する。
論文 参考訳(メタデータ) (2025-10-20T19:02:35Z) - CoT Referring: Improving Referring Expression Tasks with Grounded Reasoning [67.18702329644526]
CoT Referringは、構造化されたチェーン・オブ・シークレット・トレーニングデータ構造を通じて、モデル推論をモダリティにわたって強化する。
トレーニングデータを再構築して、新たな出力フォームを実行し、既存のデータセットに新たなアノテーションを提供します。
また、検出とセグメント化機能を統合MLLMフレームワークに統合し、新しい適応重み付き損失で学習して性能を最適化する。
論文 参考訳(メタデータ) (2025-10-03T08:50:21Z) - Breaking the MoE LLM Trilemma: Dynamic Expert Clustering with Structured Compression [14.086434595924716]
Mixture-of-Experts (MoE) Large Language Models (LLM) は負荷不均衡、パラメータの冗長性、通信オーバーヘッドのトリレンマに直面している。
動的専門家クラスタリングと構造化圧縮に基づいて統合されたフレームワークを導入し,これらの問題に協調的に対処する。
論文 参考訳(メタデータ) (2025-09-27T10:45:58Z) - RecBase: Generative Foundation Model Pretraining for Zero-Shot Recommendation [78.01030342481246]
RecBaseは、レコメンデーション指向の目的によって事前訓練されたドメインに依存しない基礎モデルである。
アイテムを階層的な概念識別子にエンコードする統一されたアイテムトークンを導入します。
我々のモデルは、ゼロショットおよびクロスドメインレコメンデーションタスクにおいて、LLMのベースラインの最大7Bパラメータのパフォーマンスを一致または超過します。
論文 参考訳(メタデータ) (2025-09-03T08:33:43Z) - ISTR: End-to-End Instance Segmentation with Transformers [147.14073165997846]
ISTRと呼ばれるインスタンスセグメンテーショントランスフォーマーを提案します。これは、その種類の最初のエンドツーエンドフレームワークです。
ISTRは低次元マスクの埋め込みを予測し、それらのマスクの埋め込みと一致する。
ISTRは、提案されたエンドツーエンドのメカニズムにより、近似ベースのサブオプティマティック埋め込みでも最先端のパフォーマンスを発揮します。
論文 参考訳(メタデータ) (2021-05-03T06:00:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。