論文の概要: Updating velocities in heterogeneous comprehensive learning particle
swarm optimization with low-discrepancy sequences
- arxiv url: http://arxiv.org/abs/2209.09438v1
- Date: Tue, 20 Sep 2022 03:14:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 18:28:04.445969
- Title: Updating velocities in heterogeneous comprehensive learning particle
swarm optimization with low-discrepancy sequences
- Title(参考訳): 低離散系列を用いた不均一学習粒子群最適化における速度の更新
- Authors: Yuelin Zhao, Feng Wu, Jianhua Pang, Wanxie Zhong
- Abstract要約: 不均質な総合的な学習粒子群最適化(HCLPSO)は、探索と搾取能力を増強した進化的アルゴリズムの一種である。
低差分シーケンス (LDS) は、ランダムなシーケンスよりも探索空間をカバーするのに一様である。
本稿では, HCLPSOの改善のために, LDSの良質な均一性を利用する。
- 参考スコア(独自算出の注目度): 32.5231602850191
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Heterogeneous comprehensive learning particle swarm optimization (HCLPSO) is
a type of evolutionary algorithm with enhanced exploration and exploitation
capabilities. The low-discrepancy sequence (LDS) is more uniform in covering
the search space than random sequences. In this paper, making use of the good
uniformity of LDS to improve HCLPSO is researched. Numerical experiments are
performed to show that it is impossible to effectively improve the search
ability of HCLPSO by only using LDS to generate the initial population.
However, if we properly choose some random sequences from the HCLPSO velocities
updating formula and replace them with the deterministic LDS, we can obtain a
more efficient algorithm. Compared with the original HCLPSO under the same
accuracy requirement, the HCLPSO updating the velocities with the deterministic
LDS can significantly reduce the iterations required for finding the optimal
solution, without decreasing the success rate.
- Abstract(参考訳): ヘテロジニアス包括学習粒子群最適化(hclpso)は、探索と搾取能力を強化した進化的アルゴリズムの一種である。
低差分シーケンス(LDS)は、ランダムシーケンスよりも探索空間をカバーしている。
本稿では,HCLPSOの改良にLDSの良質な均一性を生かした。
LDSのみを用いて初期個体群を生成することでHCLPSOの探索能力を効果的に向上することは不可能であることを示す数値実験を行った。
しかし、hclpso速度更新式からランダムシーケンスを適切に選択し、決定論的ldsに置き換えれば、より効率的なアルゴリズムを得ることができる。
HCLPSOは従来のHCLPSOと同一の精度で比較し、決定論的LDSで速度を更新することで、成功率を低下させることなく最適解を見つけるのに必要なイテレーションを大幅に削減することができる。
関連論文リスト
- Faster WIND: Accelerating Iterative Best-of-$N$ Distillation for LLM Alignment [81.84950252537618]
本稿では,反復的BONDと自己プレイアライメントの統一的なゲーム理論接続を明らかにする。
WINレート支配(WIN rate Dominance, WIND)という新しいフレームワークを構築し, 正規化利率支配最適化のためのアルゴリズムを多数提案する。
論文 参考訳(メタデータ) (2024-10-28T04:47:39Z) - Zeroth-Order Fine-Tuning of LLMs in Random Subspaces [66.27334633749734]
言語モデルのサイズが大きくなるにつれて、バックプロパゲーションに対するメモリ要求が増加する。
Zeroth-order (ZOZO) 最適化手法はメモリ効率の代替手段を提供する。
本稿では,SubZeroがファインチューニングを強化し,通常のZOZO手法と比較して高速な結果が得られることを示す。
論文 参考訳(メタデータ) (2024-10-11T17:01:43Z) - Provably Mitigating Overoptimization in RLHF: Your SFT Loss is Implicitly an Adversarial Regularizer [52.09480867526656]
人間の嗜好を学習する際の分布変化と不確実性の一形態として,不一致の原因を同定する。
過度な最適化を緩和するために、まず、逆選択された報酬モデルに最適なポリシーを選択する理論アルゴリズムを提案する。
報奨モデルとそれに対応する最適ポリシーの等価性を用いて、優先最適化損失と教師付き学習損失を組み合わせた単純な目的を特徴とする。
論文 参考訳(メタデータ) (2024-05-26T05:38:50Z) - Orthogonally Initiated Particle Swarm Optimization with Advanced Mutation for Real-Parameter Optimization [0.04096453902709291]
本稿では,多角形PSO(orthogonal PSO with Mutation,OPSO-m)と呼ばれる拡張粒子群(PSO)を紹介する。
PSOのための改良された初期Swarmを育むための配列ベースの学習手法を提案し、Swarmベースの最適化アルゴリズムの適応性を大幅に向上させた。
この記事はさらに、人口を正規グループとエリートグループに分割する、アーカイブベースの自己適応学習戦略を提示する。
論文 参考訳(メタデータ) (2024-05-21T07:16:20Z) - Optimized Deep Feature Selection for Pneumonia Detection: A Novel RegNet
and XOR-Based PSO Approach [1.3597551064547502]
肺炎は、特に発展途上国において、乳児死亡の重要な原因である。
本研究では、RegNetモデルの2番目の層から深い特徴を抽出するために、XORに基づくパーティクルスワーム最適化(PSO)を提案する。
163個の特徴を抽出し,98%の精度を達成し,従来のPSO法と同等の精度を示した。
論文 参考訳(メタデータ) (2023-08-31T21:42:54Z) - BiSLS/SPS: Auto-tune Step Sizes for Stable Bi-level Optimization [33.082961718280245]
既存のアルゴリズムは、ハイパーグラディエントを計算する際に近似誤差の影響を受け得る2つの結合学習率を含んでいる。
線形探索(SLS)とポリアクステップサイズ(SPS)という適応的なステップサイズ法を用いて,上層と下層の両方の学習率の計算を行う。
SGDとAdamの両バージョンで利用できる新しいアルゴリズムは、最小限のチューニングで大きな学習率を見つけ、対応するバニラBOアルゴリズムよりも高速に収束させることができる。
論文 参考訳(メタデータ) (2023-05-30T00:37:50Z) - An Accelerated Doubly Stochastic Gradient Method with Faster Explicit
Model Identification [97.28167655721766]
本稿では、分散正規化損失最小化問題に対する2倍加速勾配降下法(ADSGD)を提案する。
まず、ADSGDが線形収束率を達成でき、全体的な計算複雑性を低減できることを示す。
論文 参考訳(メタデータ) (2022-08-11T22:27:22Z) - Adaptive Latent Factor Analysis via Generalized Momentum-Incorporated
Particle Swarm Optimization [6.2303427193075755]
勾配降下(SGD)アルゴリズムは,高次元および不完全行列上に潜在因子分析(LFA)モデルを構築するための効果的な学習戦略である。
粒子群最適化(PSO)アルゴリズムは、SGDベースのLFAモデルのハイパーパラメータ(学習率と正規化係数、自己適応)を作成するために一般的に用いられる。
本論文は, 各粒子の進化過程に, 早期収束を避けるために, より歴史的情報を取り入れたものである。
論文 参考訳(メタデータ) (2022-08-04T03:15:07Z) - Learning Sampling Policy for Faster Derivative Free Optimization [100.27518340593284]
ランダムサンプリングではなく,ZO最適化における摂動を生成するためのサンプリングポリシを学習する,新たな強化学習ベースのZOアルゴリズムを提案する。
その結果,ZO-RLアルゴリズムはサンプリングポリシを学習することでZO勾配の分散を効果的に低減し,既存のZOアルゴリズムよりも高速に収束できることが示唆された。
論文 参考訳(メタデータ) (2021-04-09T14:50:59Z) - Convergence Analysis of Homotopy-SGD for non-convex optimization [43.71213126039448]
ホモトピー法とSGDを組み合わせた一階述語アルゴリズム、Gradienty-Stoch Descent (H-SGD)を提案する。
いくつかの仮定の下で、提案した問題の理論的解析を行う。
実験の結果,H-SGDはSGDより優れていた。
論文 参考訳(メタデータ) (2020-11-20T09:50:40Z) - Efficient Model-Based Reinforcement Learning through Optimistic Policy
Search and Planning [93.1435980666675]
最先端の強化学習アルゴリズムと楽観的な探索を容易に組み合わせることができることを示す。
我々の実験は、楽観的な探索が行動に罰則がある場合、学習を著しくスピードアップすることを示した。
論文 参考訳(メタデータ) (2020-06-15T18:37:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。