論文の概要: Extensions of regret-minimization algorithm for optimal design
- arxiv url: http://arxiv.org/abs/2503.19874v1
- Date: Tue, 25 Mar 2025 17:37:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-26 16:52:05.636115
- Title: Extensions of regret-minimization algorithm for optimal design
- Title(参考訳): 最適設計のための後悔最小化アルゴリズムの拡張
- Authors: Youguang Chen, George Biros,
- Abstract要約: 本稿では, 最適設計問題の解法として, サーボ設計を導入した, 後悔の最小化フレームワークの拡張と応用について検討する。
我々はこのフレームワークにエントロピー正則化器を組み込み、新しいサンプル選択目標と証明可能なサンプル境界複雑性をもたらす。
アプリケーションとして,ラベル情報に頼らずに画像分類データセットから少数の代表サンプルを選択するために,本アルゴリズムを用いる。
- 参考スコア(独自算出の注目度): 3.4245017707416148
- License:
- Abstract: We explore extensions and applications of the regret minimization framework introduced by~\cite{design} for solving optimal experimental design problems. Specifically, we incorporate the entropy regularizer into this framework, leading to a novel sample selection objective and a provable sample complexity bound that guarantees a $(1+\epsilon)$-near optimal solution. We further extend the method to handle regularized optimal design settings. As an application, we use our algorithm to select a small set of representative samples from image classification datasets without relying on label information. To evaluate the quality of the selected samples, we train a logistic regression model and compare performance against several baseline sampling strategies. Experimental results on MNIST, CIFAR-10, and a 50-class subset of ImageNet show that our approach consistently outperforms competing methods in most cases.
- Abstract(参考訳): 最適設計問題を解くために,~\cite{design} によって導入された後悔最小化フレームワークの拡張と応用について検討する。
具体的には、エントロピー正則化器をこのフレームワークに組み込んで、新しいサンプル選択目標と、$(1+\epsilon)$-nearの最適解を保証する証明可能なサンプル複雑性を導出する。
さらに、正規化された最適設計設定を扱うように拡張する。
アプリケーションとして,ラベル情報に頼らずに画像分類データセットから少数の代表サンプルを選択するために,本アルゴリズムを用いる。
選択したサンプルの品質を評価するため,ロジスティック回帰モデルを訓練し,いくつかの基準サンプリング手法と比較した。
MNIST, CIFAR-10, およびImageNetの50クラスのサブセットに対する実験結果から, 提案手法はほとんどの場合, 競合する手法よりも一貫して優れていることが示された。
関連論文リスト
- An incremental preference elicitation-based approach to learning potentially non-monotonic preferences in multi-criteria sorting [53.36437745983783]
まず最適化モデルを構築し,非単調な選好をモデル化する。
本稿では,情報量測定手法と質問選択戦略を考案し,各イテレーションにおいて最も情報に富む選択肢を特定する。
2つのインクリメンタルな選好に基づくアルゴリズムは、潜在的に単調な選好を学習するために開発された。
論文 参考訳(メタデータ) (2024-09-04T14:36:20Z) - Model-Free Active Exploration in Reinforcement Learning [53.786439742572995]
強化学習における探索問題について検討し,新しいモデルフリーソリューションを提案する。
我々の戦略は、最先端の探査アプローチよりも高速に効率的な政策を特定できる。
論文 参考訳(メタデータ) (2024-06-30T19:00:49Z) - MB-RACS: Measurement-Bounds-based Rate-Adaptive Image Compressed Sensing Network [65.1004435124796]
本稿では,MB-RACS(Message-Bounds-based Rate-Adaptive Image Compressed Sensing Network)フレームワークを提案する。
実験により,提案手法が現在の先行手法を超越していることが実証された。
論文 参考訳(メタデータ) (2024-01-19T04:40:20Z) - Learning Rate Free Sampling in Constrained Domains [21.853333421463603]
我々は、完全に学習率の低い制約付き領域をサンプリングするための新しい粒子ベースのアルゴリズム一式を導入する。
我々は,本アルゴリズムの性能を,単純度に基づくターゲットからのサンプリングを含む,様々な数値的な例で示す。
論文 参考訳(メタデータ) (2023-05-24T09:31:18Z) - Efficient Learning for Selecting Top-m Context-Dependent Designs [0.7646713951724012]
文脈に依存した意思決定のためのシミュレーション最適化問題を考察する。
本研究では,各デザインの性能を各コンテキスト下で効率的に学習するためのシーケンシャルサンプリングポリシーを開発する。
数値実験により,提案手法はトップmの文脈依存設計の選択効率を向上することを示した。
論文 参考訳(メタデータ) (2023-05-06T16:11:49Z) - Towards Automated Imbalanced Learning with Deep Hierarchical
Reinforcement Learning [57.163525407022966]
不均衡学習はデータマイニングにおいて基本的な課題であり、各クラスにトレーニングサンプルの不均等な比率が存在する。
オーバーサンプリングは、少数民族のための合成サンプルを生成することによって、不均衡な学習に取り組む効果的な手法である。
我々は,異なるレベルの意思決定を共同で最適化できる自動オーバーサンプリングアルゴリズムであるAutoSMOTEを提案する。
論文 参考訳(メタデータ) (2022-08-26T04:28:01Z) - Adaptive Sampling Quasi-Newton Methods for Zeroth-Order Stochastic
Optimization [1.7513645771137178]
勾配情報のない制約のない最適化問題を考察する。
適応的なサンプリング準ニュートン法を提案し、共通乱数フレームワーク内の有限差を用いてシミュレーション関数の勾配を推定する。
そこで本研究では, 標準試験と内積準ニュートン試験の修正版を開発し, 近似に使用する試料サイズを制御し, 最適解の近傍に大域収束結果を与える。
論文 参考訳(メタデータ) (2021-09-24T21:49:25Z) - Robust Topology Optimization Using Multi-Fidelity Variational Autoencoders [1.0124625066746595]
強靭なトポロジー最適化(RTO)問題は、最高の平均性能を持つ設計を特定する。
計算効率を向上するニューラルネットワーク手法を提案する。
本手法の数値解析は,Lブラケット構造のロバスト設計における単一点負荷と複数点負荷について述べる。
論文 参考訳(メタデータ) (2021-07-19T20:40:51Z) - Local policy search with Bayesian optimization [73.0364959221845]
強化学習は、環境との相互作用によって最適な政策を見つけることを目的としている。
局所探索のための政策勾配は、しばしばランダムな摂動から得られる。
目的関数の確率モデルとその勾配を用いたアルゴリズムを開発する。
論文 参考訳(メタデータ) (2021-06-22T16:07:02Z) - Refined bounds for randomized experimental design [7.899055512130904]
実験的な設計は与えられた基準のための最もよい推定器を得るために与えられたセット間のサンプルを選ぶためのアプローチです。
EおよびG最適化設計におけるランダム化戦略の理論的保証を提案する。
論文 参考訳(メタデータ) (2020-12-22T20:37:57Z) - Adaptive Sampling for Best Policy Identification in Markov Decision
Processes [79.4957965474334]
本稿では,学習者が生成モデルにアクセスできる場合の,割引マルコフ決定(MDP)における最良の政治的識別の問題について検討する。
最先端アルゴリズムの利点を論じ、解説する。
論文 参考訳(メタデータ) (2020-09-28T15:22:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。