論文の概要: Overestimation learning with guarantees
- arxiv url: http://arxiv.org/abs/2101.11717v1
- Date: Tue, 26 Jan 2021 09:06:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-13 20:06:43.719171
- Title: Overestimation learning with guarantees
- Title(参考訳): 保証付き過大評価学習
- Authors: Adrien Gauffriau, Fran\c{c}ois Malgouyres (IMT), M\'elanie Ducoffe
- Abstract要約: 与えられたドメインの参照関数を過大評価することが保証されるニューラルネットワークを学習する。
ニューラルネットワークは、参照関数のサロゲートとして使用できる。
- 参考スコア(独自算出の注目度): 4.297070083645049
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We describe a complete method that learns a neural network which is
guaranteed to overestimate a reference function on a given domain. The neural
network can then be used as a surrogate for the reference function. The method
involves two steps. In the first step, we construct an adaptive set of Majoring
Points. In the second step, we optimize a well-chosen neural network to
overestimate the Majoring Points. In order to extend the guarantee on the
Majoring Points to the whole domain, we necessarily have to make an assumption
on the reference function. In this study, we assume that the reference function
is monotonic. We provide experiments on synthetic and real problems. The
experiments show that the density of the Majoring Points concentrate where the
reference function varies. The learned over-estimations are both guaranteed to
overestimate the reference function and are proven empirically to provide good
approximations of it. Experiments on real data show that the method makes it
possible to use the surrogate function in embedded systems for which an
underestimation is critical; when computing the reference function requires too
many resources.
- Abstract(参考訳): 与えられたドメイン上の参照関数を過大評価することが保証されているニューラルネットワークを学習する完全な方法を説明します。
ニューラルネットワークは、参照関数のサロゲートとして使用できる。
方法は2つのステップを含む。
最初のステップでは、主要な点の適応セットを構築します。
第2のステップでは,重大点を過大評価するために,長大なニューラルネットワークを最適化する。
メジャーポイントの保証をドメイン全体に拡張するには、必ず参照関数の仮定をしなければなりません。
本研究では,参照関数が単調であると仮定する。
合成および実問題に関する実験を行う。
実験では、主点の密度が基準関数が変化する場所に集中することを示した。
学習された過大評価はどちらも参照関数を過大評価することが保証され、良好な近似を与えるために経験的に証明される。
実データに関する実験では、この方法は、過小評価が重要である組み込みシステムにおけるサーロゲート関数の使用を可能にすることが示されています。
関連論文リスト
- Uncertainty Quantification with Bayesian Higher Order ReLU KANs [0.0]
本稿では,コルモゴロフ・アルノルドネットワークの領域における不確実性定量化手法について紹介する。
簡単な一次元関数を含む一連の閉包試験により,本手法の有効性を検証した。
本稿では,ある項を包含することで導入された機能的依存関係を正しく識別する手法の能力を実証する。
論文 参考訳(メタデータ) (2024-10-02T15:57:18Z) - Active Level Set Estimation for Continuous Search Space with Theoretical
Guarantee [10.609848119555975]
本稿では,離散化を必要とせず,連続的な探索空間で直接動作する新しいアルゴリズムを提案する。
提案手法は,与えられた閾値よりも高いあるいは低い関数の信頼度尺度として定義される獲得関数を構築することによって,ポイントを提案する。
複数の合成および実世界のデータセットにおいて、我々のアルゴリズムは最先端の手法より優れている。
論文 参考訳(メタデータ) (2024-02-26T01:46:56Z) - INSURE: An Information Theory Inspired Disentanglement and Purification
Model for Domain Generalization [55.86299081580768]
ドメイン一般化 (Domain Generalization, DG) は、観測された複数のソースドメインのトレーニングのみにより、目に見えないターゲットドメイン上の一般化可能なモデルを学習することを目的としている。
本稿では,情報理論iNspired diSentanglement and purification modEl (INSURE)を提案する。
PACS,OfficeHome,TerraIncognita,DomainNetなど,広く使用されている4つのDGベンチマークデータセットについて実験を行った。
論文 参考訳(メタデータ) (2023-09-08T01:41:35Z) - Leveraging Prior Knowledge in Reinforcement Learning via Double-Sided
Bounds on the Value Function [4.48890356952206]
本稿では、値関数の任意の近似を用いて、関心の最適値関数上の二辺境界を導出する方法を示す。
連続状態とアクション空間のエラー解析でフレームワークを拡張します。
論文 参考訳(メタデータ) (2023-02-19T21:47:24Z) - An Upper Bound for the Distribution Overlap Index and Its Applications [18.481370450591317]
本稿では,2つの確率分布間の重なり関数に対する計算容易な上限を提案する。
提案した境界は、一級分類と領域シフト解析においてその値を示す。
私たちの研究は、重複ベースのメトリクスの応用を拡大する大きな可能性を示しています。
論文 参考訳(メタデータ) (2022-12-16T20:02:03Z) - ALSO: Automotive Lidar Self-supervision by Occupancy estimation [70.70557577874155]
本稿では,ポイントクラウド上で動作している深層知覚モデルのバックボーンを事前学習するための自己教師型手法を提案する。
中心となる考え方は、3Dポイントがサンプリングされる表面の再構成であるプリテキストタスクでモデルをトレーニングすることである。
直感的には、もしネットワークがわずかな入力ポイントのみを考慮し、シーン表面を再構築できるなら、おそらく意味情報の断片をキャプチャする。
論文 参考訳(メタデータ) (2022-12-12T13:10:19Z) - On Generalizing Beyond Domains in Cross-Domain Continual Learning [91.56748415975683]
ディープニューラルネットワークは、新しいタスクを学んだ後、これまで学んだ知識の破滅的な忘れ込みに悩まされることが多い。
提案手法は、ドメインシフト中の新しいタスクを精度良く学習することで、DomainNetやOfficeHomeといった挑戦的なデータセットで最大10%向上する。
論文 参考訳(メタデータ) (2022-03-08T09:57:48Z) - Deep Learning for Functional Data Analysis with Adaptive Basis Layers [11.831982475316641]
本稿では,マイクロニューラルネットワークとして実装された各基底関数を隠蔽ユニットとする,新しいBasis Layerを用いたニューラルネットワークを提案する。
我々のアーキテクチャは、入力関数の無関係な変化ではなく、ターゲットに関連する情報にのみ焦点をあてる機能入力に、擬似次元還元を適用することを学ぶ。
論文 参考訳(メタデータ) (2021-06-19T04:05:13Z) - Replacing Rewards with Examples: Example-Based Policy Search via
Recursive Classification [133.20816939521941]
標準的なマルコフ決定プロセス形式では、ユーザーは報酬関数を書き留めてタスクを指定する。
多くのシナリオでは、ユーザーはタスクを単語や数字で記述できないが、タスクが解決された場合の世界がどのように見えるかを簡単に示すことができる。
この観察に動機づけられた制御アルゴリズムは、成功した結果状態の例だけを考慮すれば、成功する結果につながる確率の高い状態を訪問することを目的としている。
論文 参考訳(メタデータ) (2021-03-23T16:19:55Z) - UNIPoint: Universally Approximating Point Processes Intensities [125.08205865536577]
学習可能な関数のクラスが任意の有効な強度関数を普遍的に近似できることを示す。
ニューラルポイントプロセスモデルであるUNIPointを実装し,各イベントの基底関数の和をパラメータ化するために,リカレントニューラルネットワークを用いた。
論文 参考訳(メタデータ) (2020-07-28T09:31:56Z) - Intra Order-preserving Functions for Calibration of Multi-Class Neural
Networks [54.23874144090228]
一般的なアプローチは、元のネットワークの出力をキャリブレーションされた信頼スコアに変換する、ポストホックキャリブレーション関数を学ぶことである。
以前のポストホックキャリブレーション技術は単純なキャリブレーション機能でしか機能しない。
本稿では,順序保存関数のクラスを表すニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-03-15T12:57:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。