論文の概要: Light over Heavy: Automated Performance Requirements Quantification with Linguistic Inducement
- arxiv url: http://arxiv.org/abs/2511.03421v1
- Date: Wed, 05 Nov 2025 12:38:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-06 18:19:32.426922
- Title: Light over Heavy: Automated Performance Requirements Quantification with Linguistic Inducement
- Title(参考訳): Light Over Heavy: 言語推論によるパフォーマンス要件の自動定量化
- Authors: Shihai Wang, Tao Chen,
- Abstract要約: 性能要求量化のための高効率自動アプローチであるLQPRを提案する。
パフォーマンス要件は強力なパターンを示し、しばしば短い/簡潔である。
LQPRは、75%以上のケースで唯一のベストで、2桁以下のコストでランク付けされている。
- 参考スコア(独自算出の注目度): 5.068068137363358
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Elicited performance requirements need to be quantified for compliance in different engineering tasks, e.g., configuration tuning and performance testing. Much existing work has relied on manual quantification, which is expensive and error-prone due to the imprecision. In this paper, we present LQPR, a highly efficient automatic approach for performance requirements quantification.LQPR relies on a new theoretical framework that converts quantification as a classification problem. Despite the prevalent applications of Large Language Models (LLMs) for requirement analytics, LQPR takes a different perspective to address the classification: we observed that performance requirements can exhibit strong patterns and are often short/concise, therefore we design a lightweight linguistically induced matching mechanism. We compare LQPR against nine state-of-the-art learning-based approaches over diverse datasets, demonstrating that it is ranked as the sole best for 75% or more cases with two orders less cost. Our work proves that, at least for performance requirement quantification, specialized methods can be more suitable than the general LLM-driven approaches.
- Abstract(参考訳): 緩和されたパフォーマンス要件は、さまざまなエンジニアリングタスク、例えば設定チューニングやパフォーマンステストのコンプライアンスのために定量化する必要がある。
既存の作業の多くは手作業による定量化に依存している。
本稿では,性能要求量化のための高効率自動手法であるLQPRについて述べる。
大規模言語モデル(LLM)の要求分析への応用にもかかわらず、LQPRは異なる視点で分類する。我々は、性能要件が強いパターンを示し、しばしば短い/簡潔であることを観察し、軽量な言語的に誘導されるマッチング機構を設計した。
LQPRは、さまざまなデータセットに対する9つの最先端の学習ベースのアプローチと比較し、2桁以下のコストで75%以上のケースで唯一のベストにランクされていることを示す。
我々の研究は、少なくとも性能要件の定量化には、一般のLCM方式よりも特殊な手法の方が適していることを示した。
関連論文リスト
- Benchmarking Post-Training Quantization in LLMs: Comprehensive Taxonomy, Unified Evaluation, and Comparative Analysis [89.60263788590893]
後学習量子化(PTQ)技術は大規模言語モデル(LLM)圧縮に広く採用されている。
既存のアルゴリズムは主にパフォーマンスに重点を置いており、モデルサイズ、パフォーマンス、量子化ビット幅間のトレードオフを見越している。
本稿では LLM PTQ のための新しいベンチマークを提案する。
論文 参考訳(メタデータ) (2025-02-18T07:35:35Z) - RoSTE: An Efficient Quantization-Aware Supervised Fine-Tuning Approach for Large Language Models [53.571195477043496]
本稿では,RoSTE (Rotated Straight-Through-Estimator) というアルゴリズムを提案する。
RoSTEは、量子化を意識した微調整(QA-SFT)と適応的な回転戦略を組み合わせることで、アクティベーションアウトリーを減少させる。
その結果, 予測誤差は収束重みの量子化誤差と直接比例し, 最適化された回転構成により効果的に管理できることが判明した。
論文 参考訳(メタデータ) (2025-02-13T06:44:33Z) - Think Beyond Size: Adaptive Prompting for More Effective Reasoning [0.0]
本稿では,動的かつ反復的なフレームワークであるAdaptive Promptingを紹介する。
その結果、Adaptive Promptingは、算術的推論(GSM8K、MultiArithm)、論理的推論、コモンセンスタスクなど、様々な推論ベンチマークのパフォーマンスを著しく向上させることを示した。
提案手法は,計算効率を維持しつつ,GPT-4などの大規模モデルと競合する性能を実現する。
論文 参考訳(メタデータ) (2024-10-10T17:14:36Z) - Low-Rank Quantization-Aware Training for LLMs [8.535254310145005]
大規模言語モデル(LLM)は、一様だが、計算とメモリの需要がますます増大しているため、その実践的な展開は困難である。
LLMのための軽量かつメモリ効率のQATアルゴリズムであるLR-QATを提案する。
提案手法は、PTQ(Common-training Quantization)アプローチよりも優れ、メモリ使用率のごく一部でフルモデルQATと同じモデル性能に達する。
論文 参考訳(メタデータ) (2024-06-10T15:44:22Z) - LLMC: Benchmarking Large Language Model Quantization with a Versatile Compression Toolkit [55.73370804397226]
鍵圧縮技術である量子化は、大きな言語モデルを圧縮し、加速することにより、これらの要求を効果的に軽減することができる。
本稿では,プラグアンドプレイ圧縮ツールキットであるLLMCについて,量子化の影響を公平かつ体系的に検討する。
この汎用ツールキットによって、我々のベンチマークはキャリブレーションデータ、アルゴリズム(3つの戦略)、データフォーマットの3つの重要な側面をカバーしています。
論文 参考訳(メタデータ) (2024-05-09T11:49:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。