論文の概要: Decoding ML Decision: An Agentic Reasoning Framework for Large-Scale Ranking System
- arxiv url: http://arxiv.org/abs/2602.18640v1
- Date: Fri, 20 Feb 2026 22:24:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.212106
- Title: Decoding ML Decision: An Agentic Reasoning Framework for Large-Scale Ranking System
- Title(参考訳): Decoding ML Decision: 大規模ランキングシステムのためのエージェント推論フレームワーク
- Authors: Longfei Yun, Yihan Wu, Haoran Liu, Xiaoxuan Liu, Ziyun Xu, Yi Wang, Yang Xia, Pengfei Wang, Mingze Gao, Yunxiang Wang, Changfan Chen, Junfeng Pan,
- Abstract要約: 本稿では、最適化を自律的な発見プロセスとして再編成するフレームワークであるGEARSを紹介する。
GEARSは、アルゴリズム信号と深いランク付けコンテキストを相乗化することにより、優れた、ほぼパレート効率のポリシーを一貫して識別する。
- 参考スコア(独自算出の注目度): 26.405948122941467
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern large-scale ranking systems operate within a sophisticated landscape of competing objectives, operational constraints, and evolving product requirements. Progress in this domain is increasingly bottlenecked by the engineering context constraint: the arduous process of translating ambiguous product intent into reasonable, executable, verifiable hypotheses, rather than by modeling techniques alone. We present GEARS (Generative Engine for Agentic Ranking Systems), a framework that reframes ranking optimization as an autonomous discovery process within a programmable experimentation environment. Rather than treating optimization as static model selection, GEARS leverages Specialized Agent Skills to encapsulate ranking expert knowledge into reusable reasoning capabilities, enabling operators to steer systems via high-level intent vibe personalization. Furthermore, to ensure production reliability, the framework incorporates validation hooks to enforce statistical robustness and filter out brittle policies that overfit short-term signals. Experimental validation across diverse product surfaces demonstrates that GEARS consistently identifies superior, near-Pareto-efficient policies by synergizing algorithmic signals with deep ranking context while maintaining rigorous deployment stability.
- Abstract(参考訳): 現代の大規模ランキングシステムは、競合する目標、運用上の制約、製品要件の進化といった高度な視野の中で運用されている。
この領域の進歩は、エンジニアリングコンテキストの制約によって、ますますボトルネックになっている。曖昧な製品意図を、技術のみをモデル化するのではなく、合理的で実行可能で検証可能な仮説に翻訳する、厳しいプロセスである。
GEARS(Generative Engine for Agentic Ranking Systems)は,プログラム可能な実験環境において,最適化を自律的な発見プロセスとして再編成するフレームワークである。
最適化を静的モデル選択として扱う代わりに、GEARSは専門エージェントスキルを活用して、専門家の知識を再利用可能な推論能力にカプセル化することで、オペレーターが高レベルなインテントビブパーソナライゼーションを通じてシステムを操ることができる。
さらに、信頼性を確保するために、このフレームワークはバリデーションフックを導入し、統計的堅牢性を強制し、短期的な信号に過度に適合する脆いポリシーをフィルタリングする。
GEARSは、厳密な配置安定性を維持しつつ、アルゴリズム信号と深いランク付けコンテキストを相乗化することにより、優れた、ほぼパレート効率のポリシーを一貫して識別することを示した。
関連論文リスト
- Agentic Problem Frames: A Systematic Approach to Engineering Reliable Domain Agents [0.0]
大きな言語モデル(LLM)は、自律的なエージェントへと進化していますが、現在の"フレームワークレス"な開発は、あいまいな自然言語に基づいています。
本研究では,内部モデルインテリジェンスからエージェントと環境間の構造的相互作用に焦点を移すシステム工学フレームワークであるエージェント問題フレーム(APF)を提案する。
論文 参考訳(メタデータ) (2026-02-22T06:32:32Z) - Not All Preferences Are Created Equal: Stability-Aware and Gradient-Efficient Alignment for Reasoning Models [52.48582333951919]
ポリシー更新の信号対雑音比を最大化することにより、アライメントの信頼性を高めるために設計された動的フレームワークを提案する。
SAGE(Stability-Aware Gradient Efficiency)は、モデル能力に基づいて候補プールをリフレッシュする粗いきめ細かいカリキュラムメカニズムを統合する。
複数の数学的推論ベンチマークの実験により、SAGEは収束を著しく加速し、静的ベースラインを上回っていることが示された。
論文 参考訳(メタデータ) (2026-02-01T12:56:10Z) - EmboCoach-Bench: Benchmarking AI Agents on Developing Embodied Robots [68.29056647487519]
Embodied AIは、高忠実度シミュレーションと大規模データ収集によって実現されている。
しかし、このスケーリング能力は、労働集約的な手作業の監視に依存しているため、いまだにボトルネックになっている。
実装ポリシーを自律的に構築するための LLM エージェントの能力を評価するベンチマークである textscEmboCoach-Bench を紹介する。
論文 参考訳(メタデータ) (2026-01-29T11:33:49Z) - Hybrid Agentic AI and Multi-Agent Systems in Smart Manufacturing [0.0]
本稿では,複合エージェントAIとマルチエージェントフレームワークを,規範的メンテナンスユースケースに適用する。
提案するフレームワークは、認識層、前処理層、分析層、最適化層からなる階層アーキテクチャを採用している。
特殊エージェントは、スキーマ発見、インテリジェントな特徴分析、モデル選択、規範最適化を自律的に処理する。
最初の概念実証は、2つの工業生産データセットで検証される。
論文 参考訳(メタデータ) (2025-11-23T03:06:23Z) - Towards more Contextual Agents: An extractor-Generator Optimization Framework [0.0]
LLM(Large Language Model)ベースのエージェントは、幅広い汎用アプリケーションにわたる複雑なタスクの解決に顕著な成功を収めている。
しかしながら、それらのパフォーマンスは、専門産業や研究領域のようなコンテキスト固有のシナリオで劣化することが多い。
この課題に対処するため,本研究では,LLMエージェントの文脈適応性を高めるための体系的アプローチを提案する。
論文 参考訳(メタデータ) (2025-02-18T15:07:06Z) - Provable Guarantees for Generative Behavior Cloning: Bridging Low-Level
Stability and High-Level Behavior [51.60683890503293]
生成モデルを用いた複雑な専門家による実演の行動クローニングに関する理論的枠組みを提案する。
任意の専門的軌跡の時間ごとのステップ分布に一致するトラジェクトリを生成することができることを示す。
論文 参考訳(メタデータ) (2023-07-27T04:27:26Z) - When Demonstrations Meet Generative World Models: A Maximum Likelihood
Framework for Offline Inverse Reinforcement Learning [62.00672284480755]
本稿では, 専門家エージェントから, 一定の有限個の実演において観測された動作を過小評価する報酬と環境力学の構造を復元することを目的とする。
タスクを実行するための正確な専門知識モデルは、臨床的意思決定や自律運転のような安全に敏感な応用に応用できる。
論文 参考訳(メタデータ) (2023-02-15T04:14:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。