論文の概要: A Metaheuristic-Driven Approach to Fine-Tune Deep Boltzmann Machines
- arxiv url: http://arxiv.org/abs/2101.05795v1
- Date: Thu, 14 Jan 2021 18:57:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-29 03:36:51.993273
- Title: A Metaheuristic-Driven Approach to Fine-Tune Deep Boltzmann Machines
- Title(参考訳): メタヒューリスティック駆動による深いボルツマン機械へのアプローチ
- Authors: Leandro Aparecido Passos, Jo\~ao Paulo Papa
- Abstract要約: この研究はDeep Boltzmann Machinesの微調整ハイパーパラメータの問題に対処する。
バイナリイメージ再構築のための3つの公開データセットで実施された実験は、メタヒューリスティック技術が妥当な結果を得ることができることを示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning techniques, such as Deep Boltzmann Machines (DBMs), have
received considerable attention over the past years due to the outstanding
results concerning a variable range of domains. One of the main shortcomings of
these techniques involves the choice of their hyperparameters, since they have
a significant impact on the final results. This work addresses the issue of
fine-tuning hyperparameters of Deep Boltzmann Machines using metaheuristic
optimization techniques with different backgrounds, such as swarm intelligence,
memory- and evolutionary-based approaches. Experiments conducted in three
public datasets for binary image reconstruction showed that metaheuristic
techniques can obtain reasonable results.
- Abstract(参考訳): ディープ・ボルツマン・マシン(dbms)のようなディープラーニング技術は、様々な領域に関する優れた結果のために、近年多くの注目を集めている。
これらのテクニックの主な欠点の1つは、最終的な結果に大きな影響を与えるため、ハイパーパラメータの選択である。
本研究は,swarm intelligenceやメモリ,進化に基づくアプローチなど,バックグラウンドの異なるメタヒューリスティック最適化手法を用いて,ディープボルツマンマシンのハイパーパラメータを微調整する問題に対処する。
バイナリ画像再構成のための3つの公開データセットで行われた実験は、メタヒューリスティックな手法が妥当な結果を得ることができることを示した。
関連論文リスト
- See Further for Parameter Efficient Fine-tuning by Standing on the Shoulders of Decomposition [56.87609859444084]
パラメータ効率の細かいチューニング(PEFT)は、パラメータの選択したサブセットを最適化し、残りを固定し、計算とストレージのオーバーヘッドを大幅に削減することに焦点を当てている。
分解の観点からそれらを分離することで、すべてのアプローチを統一する第一歩を踏み出します。
本稿では,PEFT技術の性能向上を目的とした,単純かつ効果的なフレームワークとともに,新しい2つのPEFT手法を提案する。
論文 参考訳(メタデータ) (2024-07-07T15:44:42Z) - On the consistency of hyper-parameter selection in value-based deep reinforcement learning [13.133865673667394]
本稿では,値に基づく深層強化学習エージェントのハイパーパラメータ選択の信頼性に着目した実証的研究を行う。
我々の研究は、どのハイパーパラメーターがチューニングに最も重要かを確立するのに役立ち、どのチューニングが異なるトレーニング体制間で一貫性を持ち続けるかを明らかにするのに役立ちます。
論文 参考訳(メタデータ) (2024-06-25T13:06:09Z) - PriorBand: Practical Hyperparameter Optimization in the Age of Deep
Learning [49.92394599459274]
我々は,Deep Learning(DL)パイプラインに適したHPOアルゴリズムであるPresideBandを提案する。
各種のDLベンチマークでその堅牢性を示し、情報的専門家のインプットと、専門家の信条の低さに対してその利得を示す。
論文 参考訳(メタデータ) (2023-06-21T16:26:14Z) - Detecting Rotated Objects as Gaussian Distributions and Its 3-D
Generalization [81.29406957201458]
既存の検出方法は、パラメータ化バウンディングボックス(BBox)を使用して(水平)オブジェクトをモデル化し、検出する。
このような機構は回転検出に有効な回帰損失を構築するのに基本的な限界があると主張する。
回転した物体をガウス分布としてモデル化することを提案する。
2次元から3次元へのアプローチを、方向推定を扱うアルゴリズム設計により拡張する。
論文 参考訳(メタデータ) (2022-09-22T07:50:48Z) - Multi-objective hyperparameter optimization with performance uncertainty [62.997667081978825]
本稿では,機械学習アルゴリズムの評価における不確実性を考慮した多目的ハイパーパラメータ最適化の結果について述べる。
木構造型Parzen Estimator(TPE)のサンプリング戦略と、ガウス過程回帰(GPR)と異種雑音の訓練後に得られたメタモデルを組み合わせる。
3つの解析的テスト関数と3つのML問題の実験結果は、多目的TPEとGPRよりも改善したことを示している。
論文 参考訳(メタデータ) (2022-09-09T14:58:43Z) - Towards Learning Universal Hyperparameter Optimizers with Transformers [57.35920571605559]
我々は,テキストベースのトランスフォーマーHPOフレームワークであるOptFormerを紹介した。
実験の結果,OptFormerは少なくとも7種類のHPOアルゴリズムを模倣できることがわかった。
論文 参考訳(メタデータ) (2022-05-26T12:51:32Z) - To tune or not to tune? An Approach for Recommending Important
Hyperparameters [2.121963121603413]
機械学習モデルの性能とハイパーパラメータの関係を構築して、トレンドを発見し、洞察を得ることを検討する。
この結果から,ユーザが時間を要するチューニング戦略を実行する価値があるかどうかを判断することが可能になる。
論文 参考訳(メタデータ) (2021-08-30T08:54:58Z) - Hybrid neural network reduced order modelling for turbulent flows with
geometric parameters [0.0]
本稿では,幾何的パラメータ化不可能な乱流Navier-Stokes問題の解法として,古典的ガレルキン射影法とデータ駆動法を併用して,多目的かつ高精度なアルゴリズムを提案する。
本手法の有効性は,古典学のバックステップ問題と形状変形Ahmed体応用の2つの異なるケースで実証された。
論文 参考訳(メタデータ) (2021-07-20T16:06:18Z) - Optimizing Large-Scale Hyperparameters via Automated Learning Algorithm [97.66038345864095]
ゼロ階超勾配(HOZOG)を用いた新しいハイパーパラメータ最適化法を提案する。
具体的には、A型制約最適化問題として、まずハイパーパラメータ最適化を定式化する。
次に、平均ゼロ階超勾配を用いてハイパーパラメータを更新する。
論文 参考訳(メタデータ) (2021-02-17T21:03:05Z) - VisEvol: Visual Analytics to Support Hyperparameter Search through Evolutionary Optimization [4.237343083490243]
機械学習(ML)モデルのトレーニングフェーズでは、通常、いくつかのハイパーパラメータを設定する必要がある。
本稿では、ハイパーパラメータのインタラクティブな探索と、この進化過程への介入を支援するビジュアル分析ツールVisEvolを紹介する。
VisEvolの実用性と適用性は,2つのユースケースと,ツールの有効性を評価するML専門家へのインタビューで実証された。
論文 参考訳(メタデータ) (2020-12-02T13:43:37Z) - A Study of Genetic Algorithms for Hyperparameter Optimization of Neural
Networks in Machine Translation [0.0]
遺伝的アルゴリズムを用いて,ダーウィンのファイトテスト理論の生存をモデルとした自動チューニング手法を提案する。
研究結果は,提案手法であるGAがハイパーパラメータのランダムな選択よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-09-15T02:24:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。