論文の概要: Explainable Bayesian Optimization
- arxiv url: http://arxiv.org/abs/2401.13334v1
- Date: Wed, 24 Jan 2024 09:59:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-01-25 14:53:52.317725
- Title: Explainable Bayesian Optimization
- Title(参考訳): 説明可能なベイズ最適化
- Authors: Tanmay Chakraborty, Christin Seifert, Christian Wirth
- Abstract要約: 我々は,多目的最適化により高品質な説明文を生成する規則に基づく説明可能性手法であるTNTRulesを提案する。
この研究はBOとXAIの交差に寄与し、現実世界のアプリケーションに解釈可能な最適化技術を提供する。
- 参考スコア(独自算出の注目度): 3.949577426370692
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In industry, Bayesian optimization (BO) is widely applied in the human-AI
collaborative parameter tuning of cyber-physical systems. However, BO's
solutions may deviate from human experts' actual goal due to approximation
errors and simplified objectives, requiring subsequent tuning. The black-box
nature of BO limits the collaborative tuning process because the expert does
not trust the BO recommendations. Current explainable AI (XAI) methods are not
tailored for optimization and thus fall short of addressing this gap. To bridge
this gap, we propose TNTRules (TUNE-NOTUNE Rules), a post-hoc, rule-based
explainability method that produces high quality explanations through
multiobjective optimization. Our evaluation of benchmark optimization problems
and real-world hyperparameter optimization tasks demonstrates TNTRules'
superiority over state-of-the-art XAI methods in generating high quality
explanations. This work contributes to the intersection of BO and XAI,
providing interpretable optimization techniques for real-world applications.
- Abstract(参考訳): 産業において、ベイズ最適化(BO)はサイバー物理システムの人間-AI協調パラメータチューニングに広く応用されている。
しかし、BOの解法は近似誤差と単純化された目的のために人間の実際の目標から逸脱し、その後のチューニングが要求される。
BOのブラックボックスの性質は、専門家がBO勧告を信頼していないため、協調的なチューニングプロセスを制限する。
現在の説明可能なAI(XAI)メソッドは最適化には適していないため、このギャップに対処するには不十分である。
このギャップを埋めるために,多目的最適化による高品質な説明を生成するポストホックなルールベース説明可能性法であるTNTRules(TUNE-NOTUNE Rules)を提案する。
ベンチマーク最適化問題と実世界のハイパーパラメータ最適化タスクの評価は、TNTRulesが最先端のXAI法よりも優れていることを示す。
この研究はBOとXAIの交差に寄与し、現実世界のアプリケーションに解釈可能な最適化技術を提供する。
関連論文リスト
- Tuning-Free Structured Sparse PCA via Deep Unfolding Networks [5.931547772157972]
教師なし特徴選択(UFS)のための新しいタイプのスパース主成分分析(PCA)を提案する。
解釈可能な深層展開ネットワークを使用して、反復最適化ステップをトレーニング可能なニューラルネットワークに変換する。
この革新は、従来の手法の経験的チューニング要求を効果的に回避し、正規化パラメータの自動学習を可能にする。
論文 参考訳(メタデータ) (2025-02-28T08:32:51Z) - Co-Learning Bayesian Optimization [28.394424693363103]
本稿では,モデル多様性とラベルなし情報の一致を両立させ,限られたサンプルを用いて全体のサロゲート精度を向上させる,コラーニングBO (CLBO) とラベル付けされた新しいBOアルゴリズムを提案する。
5つの数値玩具問題と3つのエンジニアリングベンチマークの試験を通じて,提案したCLBOの有効性を実証した。
論文 参考訳(メタデータ) (2025-01-23T02:25:10Z) - Scalable iterative pruning of large language and vision models using block coordinate descent [0.31410859223862103]
重みの一部を除去するプルーニングニューラルネットワークは、しばしば高い精度を維持しながら、少なくとも一定の限界まで、モデルの複雑さを著しく低減する。
本稿では,Y Combinatorial Brain Surgeonに基づくニューラルネットワークのプルーニング手法を提案するが,ネットワーク重みのサブセットに対する最適化問題を反復的,ブロック的に解決する。
論文 参考訳(メタデータ) (2024-11-26T17:54:02Z) - EARL-BO: Reinforcement Learning for Multi-Step Lookahead, High-Dimensional Bayesian Optimization [1.8655559150764562]
本稿では,高次元ブラックボックス最適化問題におけるマルチステップルックアヘッドBOのための新しい強化学習(RL)フレームワークを提案する。
まず、RLエージェントに知識の状態を表現し、初期訓練を加速するために、政治以外の学習を取り入れたアテンション・ディープセット・エンコーダを紹介する。
次に、エンドツーエンド(エンコーダRL)の政治学習に基づくマルチタスクの微調整手順を評価する。
論文 参考訳(メタデータ) (2024-10-31T19:33:21Z) - Tuning-Free Bilevel Optimization: New Algorithms and Convergence Analysis [21.932550214810533]
そこで我々はD-TFBOとS-TFBOという2つの新しいチューニング自由アルゴリズムを提案する。
D-TFBOは「累積勾配ノルムの逆」戦略によって適応的に調整された段数を持つ二重ループ構造を用いる。
S-TFBOはより単純な完全な単一ループ構造で、3つの変数を同時に更新する。
論文 参考訳(メタデータ) (2024-10-07T15:50:30Z) - Verifying Properties of Binary Neural Networks Using Sparse Polynomial Optimization [8.323690755070123]
本稿では,バイナリニューラルネットワーク(BNN)の特性検証手法について検討する。
フル精度のBNNと同様、入力の摂動にも敏感だ。
スパース多項式最適化から導かれる半有限プログラミング緩和を用いた代替手法を提案する。
論文 参考訳(メタデータ) (2024-05-27T11:03:48Z) - Human-Algorithm Collaborative Bayesian Optimization for Engineering Systems [0.0]
我々は、協調ベイズ最適化のためのアプローチを概説することで、データ駆動意思決定ループに人間を再導入する。
我々の手法は、人間は連続的な選択よりも離散的な選択をより効率的に行うことができるという仮説を生かしている。
本稿では, バイオプロセス最適化やリアクトル幾何設計を含む, 応用および数値ケーススタディにまたがるアプローチを実証する。
論文 参考訳(メタデータ) (2024-04-16T23:17:04Z) - Reinforced In-Context Black-Box Optimization [64.25546325063272]
RIBBOは、オフラインデータからエンドツーエンドでBBOアルゴリズムを強化学習する手法である。
RIBBOは、複数の動作アルゴリズムとタスクによって生成される最適化履歴を学習するために、表現的なシーケンスモデルを使用している。
提案手法の中心となるのは,テキストレグレット・ツー・ゴートークンによる最適化履歴の増大である。
論文 参考訳(メタデータ) (2024-02-27T11:32:14Z) - Enhanced Bayesian Optimization via Preferential Modeling of Abstract
Properties [49.351577714596544]
本研究では,非測定抽象特性に関する専門家の嗜好を代理モデルに組み込むための,人間とAIの協調型ベイズフレームワークを提案する。
優先判断において、誤った/誤解を招く専門家バイアスを処理できる効率的な戦略を提供する。
論文 参考訳(メタデータ) (2024-02-27T09:23:13Z) - End-to-End Learning for Fair Multiobjective Optimization Under
Uncertainty [55.04219793298687]
機械学習における予測-Then-Forecast(PtO)パラダイムは、下流の意思決定品質を最大化することを目的としている。
本稿では,PtO法を拡張して,OWA(Nondifferentiable Ordered Weighted Averaging)の目的を最適化する。
この結果から,不確実性の下でのOWA関数の最適化とパラメトリック予測を効果的に統合できることが示唆された。
論文 参考訳(メタデータ) (2024-02-12T16:33:35Z) - Equivariant Deep Weight Space Alignment [54.65847470115314]
本稿では,ウェイトアライメント問題を解決するための学習を目的とした新しいフレームワークを提案する。
まず、重み調整が2つの基本対称性に一致することを証明し、それからこれらの対称性を尊重する深いアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-10-20T10:12:06Z) - LAMBO: Large AI Model Empowered Edge Intelligence [71.56135386994119]
次世代エッジインテリジェンスは、オフロード技術を通じて様々なアプリケーションに恩恵をもたらすことが期待されている。
従来のオフロードアーキテクチャは、不均一な制約、部分的な認識、不確実な一般化、トラクタビリティの欠如など、いくつかの問題に直面している。
我々は、これらの問題を解決するための10億以上のパラメータを持つLarge AI Model-Based Offloading (LAMBO)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-29T07:25:42Z) - Model-based Causal Bayesian Optimization [74.78486244786083]
乗算重み付き因果ベイズ最適化のための最初のアルゴリズム(CBO-MW)を提案する。
グラフ関連の量に自然に依存するCBO-MWに対する後悔の限界を導出する。
我々の実験は、共有モビリティシステムにおいて、ユーザの需要パターンを学習するためにCBO-MWをどのように使用できるかの現実的なデモを含む。
論文 参考訳(メタデータ) (2023-07-31T13:02:36Z) - Online Continuous Hyperparameter Optimization for Generalized Linear Contextual Bandits [55.03293214439741]
文脈的包帯では、エージェントは過去の経験に基づいた時間依存アクションセットから順次アクションを行う。
そこで本稿では,文脈的包帯のためのオンライン連続型ハイパーパラメータチューニングフレームワークを提案する。
理論上はサブ線形の後悔を達成でき、合成データと実データの両方において既存のすべての手法よりも一貫して優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2023-02-18T23:31:20Z) - Model-based Causal Bayesian Optimization [78.120734120667]
モデルに基づく因果ベイズ最適化(MCBO)を提案する。
MCBOは介入と逆のペアをモデリングするのではなく、完全なシステムモデルを学ぶ。
標準的なベイズ最適化とは異なり、我々の取得関数は閉形式では評価できない。
論文 参考訳(メタデータ) (2022-11-18T14:28:21Z) - Enhancing Explainability of Hyperparameter Optimization via Bayesian
Algorithm Execution [13.037647287689438]
部分依存プロットのような解釈可能な機械学習(IML)手法とHPOの組み合わせについて検討する。
我々は,最適大域的予測性能を効率的に探索する改良HPO法を提案する。
提案手法は,最適化性能を損なうことなく,ブラックボックスの信頼性の高い説明を返す。
論文 参考訳(メタデータ) (2022-06-11T07:12:04Z) - Syndicated Bandits: A Framework for Auto Tuning Hyper-parameters in
Contextual Bandit Algorithms [74.55200180156906]
文脈的盗賊問題は、探索と搾取の間のトレードオフをモデル化する。
我々のSyndicated Banditsフレームワークは最適な後悔の上限を達成できることを示す。
論文 参考訳(メタデータ) (2021-06-05T22:30:21Z) - Improved Branch and Bound for Neural Network Verification via Lagrangian
Decomposition [161.09660864941603]
ニューラルネットワークの入出力特性を公式に証明するためのブランチとバウンド(BaB)アルゴリズムのスケーラビリティを改善します。
活性化に基づく新しい分岐戦略とBaBフレームワークであるブランチとデュアルネットワーク境界(BaDNB)を提案する。
BaDNBは、従来の完全検証システムを大きなマージンで上回り、対数特性で平均検証時間を最大50倍に削減した。
論文 参考訳(メタデータ) (2021-04-14T09:22:42Z) - Optimizing Large-Scale Hyperparameters via Automated Learning Algorithm [97.66038345864095]
ゼロ階超勾配(HOZOG)を用いた新しいハイパーパラメータ最適化法を提案する。
具体的には、A型制約最適化問題として、まずハイパーパラメータ最適化を定式化する。
次に、平均ゼロ階超勾配を用いてハイパーパラメータを更新する。
論文 参考訳(メタデータ) (2021-02-17T21:03:05Z) - Scalable Constrained Bayesian Optimization [10.820024633762596]
ブラックボックス制約下での高次元ブラックボックス関数のグローバルな最適化は、機械学習、制御、科学コミュニティにおける普及的なタスクである。
本稿では,上記の課題を克服し,現状を推し進めるスケーラブルな制約付きベイズ最適化(SCBO)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-20T01:48:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。