論文の概要: How Low Can You Go? The Data-Light SE Challenge
- arxiv url: http://arxiv.org/abs/2512.13524v1
- Date: Mon, 15 Dec 2025 16:49:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.763579
- Title: How Low Can You Go? The Data-Light SE Challenge
- Title(参考訳): どれくらい低いのか? Data-Light SEの挑戦
- Authors: Kishan Kumar Ganguly, Tim Menzies,
- Abstract要約: ソフトウェアエンジニアリング(SE)の研究の多くは、進歩は大量のデータセットとCPU集約に依存すると仮定している。
本稿では、ソフトウェア構成とパフォーマンスチューニング、クラウドとシステム最適化、プロジェクトとプロセスレベルの意思決定モデリング、行動分析、金融リスクモデリング、プロジェクトヘルス予測、強化学習タスク、セールス予測、ソフトウェアテストなど、他の方法も提案する。
我々の結果によると、いくつかのSEタスクは、ラベルが少なく、計算量がはるかに少ない軽量なアプローチによってよりうまく機能する可能性がある。
- 参考スコア(独自算出の注目度): 4.282746516699565
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Much of software engineering (SE) research assumes that progress depends on massive datasets and CPU-intensive optimizers. Yet has this assumption been rigorously tested? The counter-evidence presented in this paper suggests otherwise: across dozens of optimization problems from recent SE literature, including software configuration and performance tuning, cloud and systems optimization, project and process-level decision modeling, behavioral analytics, financial risk modeling, project health prediction, reinforcement learning tasks, sales forecasting, and software testing, even with just a few dozen labels, very simple methods (e.g. diversity sampling, a minimal Bayesian learner, or random probes) achieve near 90% of the best reported results. Further, these simple methods perform just as well as more state-of-the-the-art optimizers like SMAC, TPE, DEHB etc. While some tasks would require better outcomes and more sampling, these results seen after a few dozen samples would suffice for many engineering needs (particularly when the goal is rapid and cost-efficient guidance rather than slow and exhaustive optimization). Our results highlight that some SE tasks may be better served by lightweight approaches that demand fewer labels and far less computation. We hence propose the data-light challenge: when will a handful of labels suffice for SE tasks? To enable a large-scale investigation of this issue, we contribute (1) a mathematical formalization of labeling, (2) lightweight baseline algorithms, and (3) results on public-domain data showing the conditions under which lightweight methods excel or fail. For the purposes of open science, our scripts and data are online at https://github.com/KKGanguly/NEO .
- Abstract(参考訳): ソフトウェアエンジニアリング(SE)の研究の多くは、進歩は大量のデータセットとCPU集約型のオプティマイザに依存すると仮定している。
しかし、この仮定は厳格にテストされましたか?
ソフトウェア構成とパフォーマンスチューニング、クラウドとシステム最適化、プロジェクトとプロセスレベルの意思決定モデリング、行動分析、金融リスクモデリング、プロジェクトヘルス予測、強化学習タスク、販売予測、ソフトウェアテストを含む、最近のSE文献からの数十の最適化問題。
さらに、これらの単純なメソッドは、SMAC、TPE、DEHBなどの最先端のオプティマイザと同様に動作する。
いくつかのタスクはより良い結果とより多くのサンプリングを必要とするが、これらの結果は数十のサンプルが多くのエンジニアリングニーズに十分である(特にゴールが遅くて徹底的な最適化ではなく、迅速でコスト効率のよいガイダンスである場合)。
我々の結果によると、いくつかのSEタスクは、ラベルが少なく、計算量がはるかに少ない軽量なアプローチによってよりうまく機能する可能性がある。
ですから、私たちはデータライトの課題を提案しています。
この問題を大規模に調査するために,(1)ラベルの数学的形式化,(2)軽量ベースラインアルゴリズム,(3)軽量メソッドが優れているか失敗したかを示すパブリックドメインデータに寄与する。
オープンサイエンスの目的のために、我々のスクリプトとデータはhttps://github.com/KKGanguly/NEO でオンライン公開されている。
関連論文リスト
- SciML Agents: Write the Solver, Not the Solution [69.5021018644143]
敵の"ミスリーディング"問題の診断データセットと,1,000種類のODEタスクの大規模ベンチマークという,2つの新しいデータセットを紹介した。
オープンおよびクローズドソース LLM モデルについて, (i) 誘導型とガイド型, (ii) オフ・ザ・シェルフ対微調整型という2つの軸に沿って評価した。
予備的な結果は、慎重なプロンプトと微調整により、単純なODE問題を確実に解決できる特殊なLLMエージェントが得られることを示唆している。
論文 参考訳(メタデータ) (2025-09-12T02:53:57Z) - BINGO! Simple Optimizers Win Big if Problems Collapse to a Few Buckets [12.069139819456861]
ソフトウェアエンジニアリング(SE)は遅くて複雑です。
本稿では,SEデータを少数の解"バケット"に分解する新たな現象であるBINGO効果を紹介する。
39のSE問題の最適化におけるBINGO効果の有意性を示す。
これを実行することで、最先端のメソッドよりも1万倍高速に最適化できます。
論文 参考訳(メタデータ) (2025-06-04T23:13:58Z) - Self-Supervised Prompt Optimization [19.159322848728646]
十分に設計されたプロンプトは、Large Language Model(LLM)推論能力の強化に不可欠である。
既存のプロンプト最適化手法は、地上の真実や人間による外部参照に大きく依存している。
本稿では,閉じたタスクとオープンなタスクの両方に効果的なプロンプトを発見する費用効率のよいフレームワークであるセルフ・スーパービジョン・プロンプト・最適化(SPO)を提案する。
論文 参考訳(メタデータ) (2025-02-07T17:45:16Z) - OptiBench Meets ReSocratic: Measure and Improve LLMs for Optimization Modeling [62.19438812624467]
大規模言語モデル (LLM) は数学的推論における問題解決能力を示した。
本稿では,人間可読入力と出力を用いたエンドツーエンド最適化問題のベンチマークであるOptiBenchを提案する。
論文 参考訳(メタデータ) (2024-07-13T13:27:57Z) - A Declarative System for Optimizing AI Workloads [14.302404377396837]
Palimpzestは、宣言型言語で定義することで、誰でもAIによる分析クエリを処理できるシステムである。
本稿では,AIを利用した分析タスクの作業負荷,Palimpzestが使用している最適化手法,プロトタイプシステム自体について述べる。
我々の単純なプロトタイプでさえ、ベースライン方式よりも3.3倍速く2.9倍安いものを含む、魅力的なプランを提供している。
論文 参考訳(メタデータ) (2024-05-23T15:31:18Z) - Get more for less: Principled Data Selection for Warming Up Fine-Tuning in LLMs [18.242110417706]
この研究は、膨大なラベルのないオープンデータから事前訓練された言語モデルへの活用と選択に焦点を当てている。
特定の条件下での微調整タスクに対するこのアプローチの最適性を示す。
提案手法は既存の手法よりもはるかに高速で,GPU時間内に数百万のサンプルにスケールアップする。
論文 参考訳(メタデータ) (2024-05-05T00:08:00Z) - MinPrompt: Graph-based Minimal Prompt Data Augmentation for Few-shot Question Answering [64.6741991162092]
オープンドメイン質問応答のための最小限のデータ拡張フレームワークMinPromptを提案する。
我々は、生テキストをグラフ構造に変換し、異なる事実文間の接続を構築する。
次に、グラフアルゴリズムを適用して、原文のほとんどの情報をカバーするのに必要な最小限の文の集合を識別する。
同定された文サブセットに基づいてQAペアを生成し、選択した文に基づいてモデルをトレーニングし、最終モデルを得る。
論文 参考訳(メタデータ) (2023-10-08T04:44:36Z) - Efficient Online Reinforcement Learning with Offline Data [78.92501185886569]
オンライン学習時にオフラインデータを活用するために、既存のオフライン手法を単純に適用できることを示します。
私たちはこれらの設計選択を広範囲に改善し、パフォーマンスに最も影響を与える重要な要因を示します。
これらのシンプルなレコメンデーションの正しい適用によって、既存のアプローチよりも$mathbf2.5times$の改善が得られます。
論文 参考訳(メタデータ) (2023-02-06T17:30:22Z) - Learning to Optimize: A Primer and A Benchmark [94.29436694770953]
最適化への学習(L2O)は、機械学習を活用して最適化方法を開発する新しいアプローチです。
この記事では、継続的最適化のためのL2Oの総合的な調査とベンチマークを行う。
論文 参考訳(メタデータ) (2021-03-23T20:46:20Z) - How to distribute data across tasks for meta-learning? [59.608652082495624]
タスクごとのデータポイントの最適な数は予算に依存しますが、それは大きな予算のためのユニークな一定の値に収束します。
この結果から,データ収集の簡便かつ効率的な手順が示唆された。
論文 参考訳(メタデータ) (2021-03-15T15:38:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。