論文の概要: Reducing hyperparameter sensitivity in measurement-feedback based Ising machines
- arxiv url: http://arxiv.org/abs/2603.04093v1
- Date: Wed, 04 Mar 2026 14:03:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-05 21:29:15.336007
- Title: Reducing hyperparameter sensitivity in measurement-feedback based Ising machines
- Title(参考訳): 計測フィードバック型イジングマシンにおけるハイパーパラメータ感度の低減
- Authors: Toon Sevenants, Guy Van der Sande, Guy Verschaffelt,
- Abstract要約: 本稿では,時間離散計測フィードバックアーキテクチャがアナログIsingマシンに与える影響について論じる。
本稿では,これらの計測フィードバックアーキテクチャのハイパーパラメータ選択に対する感度を低減させる手法を提案し,実験的に検証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Analog Ising machines have been proposed as heuristic hardware solvers for combinatorial optimization problems, with the potential to outperform conventional approaches, provided that their hyperparameters are carefully tuned. Their temporal evolution is often described using time-continuous dynamics. However, most experimental implementations rely on measurement-feedback architectures that operate in a time-discrete manner. We observe that in such setups, the range of effective hyperparameters is substantially smaller than in the envisioned time-continuous analog Ising machine. In this paper, we analyze this discrepancy and discuss its impact on the practical operation of Ising machines. Next, we propose and experimentally verify a method to reduce the sensitivity to hyperparameter selection of these measurement-feedback architectures.
- Abstract(参考訳): アナログイジングマシンは組合せ最適化問題に対するヒューリスティックなハードウェア解法として提案されており、ハイパーパラメータが慎重に調整されている場合、従来の手法より優れている可能性がある。
時相進化はしばしば時間連続力学を用いて記述される。
しかし、ほとんどの実験的な実装は、時間的に異なる方法で動作する計測フィードバックアーキテクチャに依存している。
このようなセットアップでは、実効性ハイパーパラメータの範囲は、想定された時間連続アナログIsingマシンよりもかなり小さいことが観察された。
本稿では,この相違を解析し,Isingマシンの実用運用への影響について論じる。
次に,これらの計測フィードバックアーキテクチャのハイパーパラメータ選択に対する感度を低減させる手法を提案し,実験的に検証する。
関連論文リスト
- A Physics Informed Machine Learning Framework for Optimal Sensor Placement and Parameter Estimation [0.0]
本研究では,センサ配置とパラメータ推定を同時に行う,包括的なPINNベースのフレームワークを提案する。
その結果,本手法は直感的あるいはランダムに選択されたセンサ位置から推定したパラメータ値と比較して,常に高精度であることがわかった。
論文 参考訳(メタデータ) (2025-11-19T15:37:17Z) - Continual Adaptation: Environment-Conditional Parameter Generation for Object Detection in Dynamic Scenarios [54.58186816693791]
環境は時間と空間によって常に変化し、クローズドセットの仮定に基づいて訓練された物体検出器にとって重要な課題となる。
そこで本研究では,微調整過程をパラメータ生成に変換する機構を提案する。
特に,2経路LoRAベースのドメイン認識アダプタを最初に設計し,特徴をドメイン不変およびドメイン固有コンポーネントに分解する。
論文 参考訳(メタデータ) (2025-06-30T17:14:12Z) - A Method for Evaluating Hyperparameter Sensitivity in Reinforcement Learning [11.929813643723413]
本研究は,ハイパーパラメータチューニングに対するアルゴリズム性能の感度を研究,比較,定量化するための新しい経験的手法を提案する。
その結果、アルゴリズムの性能改善は、実際にはハイパーパラメータチューニングへの依存度が増大した結果である可能性が示唆された。
論文 参考訳(メタデータ) (2024-12-10T03:55:18Z) - Beyond algorithm hyperparameters: on preprocessing hyperparameters and associated pitfalls in machine learning applications [0.30786914102688595]
本稿では,予測モデルの生成と評価のための異なる手順について,実験的に考察する。
潜在的な落とし穴、特に誇張されたパフォーマンスクレームにつながる可能性のあるものを強調することで、このレビューはMLアプリケーションにおける予測モデリングの品質をさらに向上することを目的としている。
論文 参考訳(メタデータ) (2024-12-04T17:29:10Z) - AutoRL Hyperparameter Landscapes [69.15927869840918]
強化学習(Reinforcement Learning, RL)は印象的な結果を生み出すことができるが、その使用はハイパーパラメータがパフォーマンスに与える影響によって制限されている。
我々は,これらのハイパーパラメータの景観を1つの時間だけではなく,複数の時間内に構築し,解析する手法を提案する。
これは、ハイパーパラメータがトレーニング中に動的に調整されるべきであるという理論を支持し、ランドスケープ解析によって得られるAutoRL問題に関するさらなる洞察の可能性を示している。
論文 参考訳(メタデータ) (2023-04-05T12:14:41Z) - Fast Hyperparameter Tuning for Ising Machines [0.8057006406834467]
ファストコンバージェンス(FastConvergence)は、木構造型Parzen Estimator(TPE)の収束加速度法である
実験では、よく知られたトラベルセールスマン問題(TSP)と擬似アサインメント問題(QAP)が入力として使用される。
結果は、FastConvergenceはトライアルの半数未満で、TPEと同じような結果が得られることを示している。
論文 参考訳(メタデータ) (2022-11-29T01:53:31Z) - Reduced order modeling of parametrized systems through autoencoders and
SINDy approach: continuation of periodic solutions [0.0]
本研究は,ROM構築と動的識別の低減を組み合わせたデータ駆動型非侵入型フレームワークを提案する。
提案手法は、非線形力学(SINDy)のパラメトリックスパース同定によるオートエンコーダニューラルネットワークを利用して、低次元力学モデルを構築する。
これらは、システムパラメータの関数として周期的定常応答の進化を追跡し、過渡位相の計算を避け、不安定性と分岐を検出することを目的としている。
論文 参考訳(メタデータ) (2022-11-13T01:57:18Z) - Amortized Auto-Tuning: Cost-Efficient Transfer Optimization for
Hyperparameter Recommendation [83.85021205445662]
本稿では,機械学習モデルのチューニングを高速化する自動チューニング(AT2)を提案する。
マルチタスクマルチ忠実ベイズ最適化フレームワークの徹底的な解析を行い、最適なインスタンス化-アモータイズ自動チューニング(AT2)を実現する。
論文 参考訳(メタデータ) (2021-06-17T00:01:18Z) - Critical Parameters for Scalable Distributed Learning with Large Batches
and Asynchronous Updates [67.19481956584465]
飽和を伴う分散トレーニング(SGD)の効率は、バッチサイズと、実装における停滞に決定的に依存することが実験的に観察されている。
結果がタイトであることを示し、数値実験で重要な結果を示しています。
論文 参考訳(メタデータ) (2021-03-03T12:08:23Z) - Online hyperparameter optimization by real-time recurrent learning [57.01871583756586]
ニューラルネットワーク(rnn)におけるハイパーパラメータ最適化とパラメータ学習の類似性を活用した。
RNNのための学習済みのオンライン学習アルゴリズムのファミリーを適応させ、ハイパーパラメータとネットワークパラメータを同時に調整します。
この手順は、通常の方法に比べて、ウォールクロック時間のほんの少しで、体系的に一般化性能が向上する。
論文 参考訳(メタデータ) (2021-02-15T19:36:18Z) - Fast and differentiable simulation of driven quantum systems [58.720142291102135]
我々は、ダイソン展開に基づく半解析手法を導入し、標準数値法よりもはるかに高速に駆動量子系を時間発展させることができる。
回路QEDアーキテクチャにおけるトランスモン量子ビットを用いた2量子ゲートの最適化結果を示す。
論文 参考訳(メタデータ) (2020-12-16T21:43:38Z) - Supporting Optimal Phase Space Reconstructions Using Neural Network
Architecture for Time Series Modeling [68.8204255655161]
位相空間特性を暗黙的に学習する機構を持つ人工ニューラルネットワークを提案する。
私たちのアプローチは、ほとんどの最先端戦略と同じくらいの競争力があるか、あるいは優れているかのどちらかです。
論文 参考訳(メタデータ) (2020-06-19T21:04:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。