論文の概要: Minimal Data, Maximum Clarity: A Heuristic for Explaining Optimization
- arxiv url: http://arxiv.org/abs/2509.08667v1
- Date: Wed, 10 Sep 2025 15:03:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-11 15:16:52.468097
- Title: Minimal Data, Maximum Clarity: A Heuristic for Explaining Optimization
- Title(参考訳): 最小データと最大明快さ:最適化を説明するためのヒューリスティック
- Authors: Amirali Rayegan, Tim Menzies,
- Abstract要約: 本稿では,アクティブサンプリング,学習,説明を統一する多目的最適化のための新しいフレームワークであるEZRを紹介する。
EZRは、高品質な構成を効率的に識別するために、ネイブベイズサンプリングに基づくアクティブな学習戦略を採用している。
その後、最適化ロジックを簡潔な決定木に蒸留し、グローバルおよびローカルな意思決定の両方に実用的な説明を提供する。
- 参考スコア(独自算出の注目度): 4.082216579462797
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Efficient, interpretable optimization is a critical but underexplored challenge in software engineering, where practitioners routinely face vast configuration spaces and costly, error-prone labeling processes. This paper introduces EZR, a novel and modular framework for multi-objective optimization that unifies active sampling, learning, and explanation within a single, lightweight pipeline. Departing from conventional wisdom, our Maximum Clarity Heuristic demonstrates that using less (but more informative) data can yield optimization models that are both effective and deeply understandable. EZR employs an active learning strategy based on Naive Bayes sampling to efficiently identify high-quality configurations with a fraction of the labels required by fully supervised approaches. It then distills optimization logic into concise decision trees, offering transparent, actionable explanations for both global and local decision-making. Extensive experiments across 60 real-world datasets establish that EZR reliably achieves over 90% of the best-known optimization performance in most cases, while providing clear, cohort-based rationales that surpass standard attribution-based explainable AI (XAI) methods (LIME, SHAP, BreakDown) in clarity and utility. These results endorse "less but better"; it is both possible and often preferable to use fewer (but more informative) examples to generate label-efficient optimization and explanations in software systems. To support transparency and reproducibility, all code and experimental materials are publicly available at https://github.com/amiiralii/Minimal-Data-Maximum-Clarity.
- Abstract(参考訳): ソフトウェアエンジニアリングにおいて、効率的な、解釈可能な最適化は重要な課題であるが、過小評価されていない課題であり、実践者は日常的に広大な構成空間と、コストがかかるエラーを起こしやすいラベル付けプロセスに直面している。
本稿では,多目的最適化のための新しいモジュール型フレームワークであるEZRを紹介する。
従来の知恵とは別に、我々の最大明快なヒューリスティックは、より少ない(しかしより有益な)データを使用することで、効果的かつ深く理解可能な最適化モデルが得られることを示した。
EZRは、Naive Bayesサンプリングに基づくアクティブな学習戦略を採用し、完全な教師付きアプローチで必要とされるラベルのごく一部で、高品質な構成を効率的に識別する。
最適化ロジックを簡潔な決定木に蒸留し、グローバルな意思決定とローカルな意思決定の両方に透過的で実用的な説明を提供する。
60の現実世界のデータセットにわたる大規模な実験により、EZRは最もよく知られている最適化性能の90%以上を確実に達成する一方で、明確でコホートに基づく、標準属性に基づく説明可能なAI(LIME、SHAP、BreakDown)メソッドを明確かつ実用性で超越した根拠を提供する。
ソフトウェアシステムにおいてラベル効率のよい最適化と説明を生成するために、より少ない(しかしより有益な)例を使うことは可能であり、しばしば好まれる。
透明性と再現性をサポートするため、すべてのコードと実験材料はhttps://github.com/amiiralii/Minimal-Data-Maximum-Clarityで公開されている。
関連論文リスト
- Pre-trained knowledge elevates large language models beyond traditional chemical reaction optimizers [0.0]
大規模言語モデル(LLM)における事前学習知識がこのパラダイムを根本的に変えることを実証する。
LLM-GOは、伝統的な手法が苦労するところを正確に表現している: 数学的最適化よりもドメイン理解を必要とする複雑なカテゴリー空間。
論文 参考訳(メタデータ) (2025-08-27T21:09:51Z) - On the Role of Feedback in Test-Time Scaling of Agentic AI Workflows [71.92083784393418]
エージェントAI(自律的な計画と行動を行うシステム)は広く普及しているが、複雑なタスクにおけるタスクの成功率は低いままである。
推論時のアライメントは、サンプリング、評価、フィードバックの3つのコンポーネントに依存します。
本稿では,様々な形態の批判から抽出されたフィードバックを繰り返し挿入するIterative Agent Decoding(IAD)を紹介する。
論文 参考訳(メタデータ) (2025-04-02T17:40:47Z) - In-context Demonstration Matters: On Prompt Optimization for Pseudo-Supervision Refinement [71.60563181678323]
大規模言語モデル(LLM)は様々なタスクで大きな成功を収めており、生成品質をさらに向上させるためには微調整が必要である場合もある。
これらの課題に対処する直接的な解決策は、教師なしの下流タスクから高信頼のデータを生成することである。
本稿では,プロンプトと全体的な擬似スーパービジョンを両立させる新しい手法,擬似教師付きデモアライメント・アライメント・アライメント・プロンプト・最適化(PAPO)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-04T03:39:28Z) - OptiBench Meets ReSocratic: Measure and Improve LLMs for Optimization Modeling [62.19438812624467]
大規模言語モデル (LLM) は数学的推論における問題解決能力を示した。
本稿では,人間可読入力と出力を用いたエンドツーエンド最適化問題のベンチマークであるOptiBenchを提案する。
論文 参考訳(メタデータ) (2024-07-13T13:27:57Z) - Localized Zeroth-Order Prompt Optimization [54.964765668688806]
そこで我々は,ZOPO(Localized zeroth-order prompt optimization)という新しいアルゴリズムを提案する。
ZOPOはニューラル・タンジェント・カーネルをベースとしたガウス法を標準ゼロ階次最適化に取り入れ、高速な局所最適探索を高速化する。
注目すべきは、ZOPOは最適化性能とクエリ効率の両方の観点から、既存のベースラインを上回っていることだ。
論文 参考訳(メタデータ) (2024-03-05T14:18:15Z) - SEE: Strategic Exploration and Exploitation for Cohesive In-Context Prompt Optimization [8.975505323004427]
大規模言語モデル(LLM)のための新しい結合型インコンテキストプロンプト最適化フレームワークを提案する。
SEEは、メタヒューリスティック最適化の原則を採用し、戦略的に探索と活用を行うスケーラブルで効率的なプロンプト最適化フレームワークである。
SEEは最先端のベースライン法を大幅に上回り、平均性能は13.94、計算コストは58.67である。
論文 参考訳(メタデータ) (2024-02-17T17:47:10Z) - Large-Batch, Iteration-Efficient Neural Bayesian Design Optimization [37.339567743948955]
本稿では,BOの限界に対処するための新しいベイズ最適化フレームワークを提案する。
我々の重要な貢献は、高度にスケーラブルでサンプルベースの取得機能であり、非支配的な目的のソートを実行する。
我々は,ベイズ型ニューラルネットワークサロゲートと組み合わせることで,最小限の反復数でデータ集約環境に有効であることを示す。
論文 参考訳(メタデータ) (2023-06-01T19:10:57Z) - Resource Aware Multifidelity Active Learning for Efficient Optimization [0.8717253904965373]
本稿では,ブラックボックス関数の最適化を高速化するためのリソース・アウェア・アクティブ・ラーニング(RAAL)戦略を紹介する。
RAAL戦略は最適化タスクの大幅な高速化を可能にするために、最適に複数のポイントを投入する。
論文 参考訳(メタデータ) (2020-07-09T10:01:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。