論文の概要: LLM Routing as Reasoning: A MaxSAT View
- arxiv url: http://arxiv.org/abs/2603.13612v1
- Date: Fri, 13 Mar 2026 21:39:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.298098
- Title: LLM Routing as Reasoning: A MaxSAT View
- Title(参考訳): LLM Routing as Reasoning: A MaxSAT View
- Authors: Son Nguyen, Xinyuan Liu, Ransalu Senanayake,
- Abstract要約: 言語条件付きLLMルーティングの制約に基づく解釈を提案する。
この観点では、ルーティングはフィードバック条件付き節の満足度をほぼ最大化する選択モデルに対応する。
- 参考スコア(独自算出の注目度): 9.154957475794612
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Routing a query through an appropriate LLM is challenging, particularly when user preferences are expressed in natural language and model attributes are only partially observable. We propose a constraint-based interpretation of language-conditioned LLM routing, formulating it as a weighted MaxSAT/MaxSMT problem in which natural language feedback induces hard and soft constraints over model attributes. Under this view, routing corresponds to selecting models that approximately maximize satisfaction of feedback-conditioned clauses. Empirical analysis on a 25-model benchmark shows that language feedback produces near-feasible recommendation sets, while no-feedback scenarios reveal systematic priors. Our results suggest that LLM routing can be understood as structured constraint optimization under language-conditioned preferences.
- Abstract(参考訳): クエリを適切なLLMでルーティングすることは、特に自然言語でユーザの好みが表現され、モデル属性が部分的にしか観察できない場合、難しい。
本稿では,言語条件付きLLMルーティングの制約に基づく解釈を提案し,モデルの属性に対して自然言語フィードバックがハードかつソフトな制約を誘発する重み付きMaxSAT/MaxSMT問題として定式化する。
この観点では、ルーティングはフィードバック条件付き節の満足度をほぼ最大化する選択モデルに対応する。
25モデルベンチマークの実証分析では、言語フィードバックがほぼ実現可能なレコメンデーションセットを生成するのに対して、フィードバックなしのシナリオは体系的な事前情報を示す。
この結果から,LLMルーティングは言語条件下での制約最適化として理解可能であることが示唆された。
関連論文リスト
- Extending Czech Aspect-Based Sentiment Analysis with Opinion Terms: Dataset and LLM Benchmarks [1.9779500088459443]
本稿では、アスペクトベース感情分析(ABSA)のためのレストラン領域における新しいチェコのデータセットを紹介する。
我々は、モノリンガル、クロスリンガル、マルチリンガル設定における大規模言語モデル(LLM)を含む、現代のトランスフォーマーモデルを用いた広範な実験を行う。
詳細なエラー分析では、微妙な意見用語の検出やニュアンスされた感情表現など、重要な課題が明らかにされている。
論文 参考訳(メタデータ) (2026-02-26T08:13:42Z) - SUTA-LM: Bridging Test-Time Adaptation and Language Model Rescoring for Robust ASR [58.31068047426522]
テスト時間適応(TTA)は、推論中にモデルを調整することで緩和することを目的としている。
最近の研究は、ビーム探索再構成や生成誤り訂正といった手法を用いて、TTAと外部言語モデルの組み合わせについて検討している。
本稿では,SUTAの簡易かつ効果的な拡張であるSUTA-LMを提案する。
18種類のASRデータセットの実験により、SUTA-LMは幅広い領域で堅牢な結果が得られることが示された。
論文 参考訳(メタデータ) (2025-06-10T02:50:20Z) - Set-LLM: A Permutation-Invariant LLM [2.9665130256021]
本論文は,大規模言語モデル(LLM)の順序感度という,特定の脆弱性によって動機付けられている。
本研究では,事前学習型LLMに対する新しいアーキテクチャ適応であるSet-LLMを導入し,置換不変性を保証する混合集合文入力の処理を可能にする。
論文 参考訳(メタデータ) (2025-05-21T12:14:26Z) - From User Preferences to Optimization Constraints Using Large Language Models [37.90220668060883]
本研究は,Large Language Models (LLMs) を用いて,ユーザの好みを家電機器のエネルギー最適化制約に変換することを目的とする。
再生可能エネルギーコミュニティにおいて,自然言語利用者の発話をスマート家電の形式的制約に転換する作業について述べる。
我々は,古典的なゼロショット,ワンショット,少数ショットの学習設定に頼って,これらの好みを翻訳する上で,現在イタリアで利用可能な様々なLLMの有効性を評価する。
論文 参考訳(メタデータ) (2025-03-27T10:52:10Z) - LLM-Lasso: A Robust Framework for Domain-Informed Feature Selection and Regularization [59.75242204923353]
LLM-Lassoは大規模言語モデル(LLM)を利用してラッソ回帰における特徴選択を導くフレームワークである。
LLMは各特徴に対してペナルティ因子を生成し、単純でチューニング可能なモデルを用いてラスソペナルティの重みに変換される。
LLMによりより関連づけられた特徴は、より低い罰を受け、最終モデルに保持される可能性を高める。
論文 参考訳(メタデータ) (2025-02-15T02:55:22Z) - LaFFi: Leveraging Hybrid Natural Language Feedback for Fine-tuning
Language Models [14.087415157225715]
微調整大型言語モデル(LLM)は、特定の下流タスクに訓練されたモデルを適用する。
Supervised Fine-Tuning (SFT) は、LLMが望ましい回答を得るために訓練される一般的なアプローチである。
本稿では,LLMのための自然言語フィードバック (Natural Language Feedback for Finetuning LLMs, LaFFi) という,SFTの代替手法を提案する。
論文 参考訳(メタデータ) (2023-12-31T21:18:16Z) - FollowBench: A Multi-level Fine-grained Constraints Following Benchmark for Large Language Models [79.62191017182518]
FollowBenchは、大規模言語モデルのベンチマークに続くきめ細かい制約のベンチマークである。
本稿では,初期命令に段階的に1つの制約を付加するマルチレベル機構を提案する。
FollowBench上での13のLLMの評価により,LLMの弱さと今後の研究への道のりを示す。
論文 参考訳(メタデータ) (2023-10-31T12:32:38Z) - ReLLa: Retrieval-enhanced Large Language Models for Lifelong Sequential Behavior Comprehension in Recommendation [43.270424225285105]
ゼロショットと少数ショットのレコメンデーションタスクのために、純粋に大きな言語モデルを適応し、強化することに重点を置いています。
ゼロショット設定と少数ショット設定の両方でレコメンデーションタスクを行うRetrieval-enhanced Large Language Model (ReLLa)を提案する。
論文 参考訳(メタデータ) (2023-08-22T02:25:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。