論文の概要: Subsampling Factorization Machine Annealing
- arxiv url: http://arxiv.org/abs/2508.08778v1
- Date: Tue, 12 Aug 2025 09:25:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-13 21:07:34.365167
- Title: Subsampling Factorization Machine Annealing
- Title(参考訳): サブサンプリングファクトリゼーションマシンの加熱
- Authors: Yusuke Hama, Tadashi Kadowaki,
- Abstract要約: FMA(Factorization Machine Annealing)の改良によりブラックボックス最適化問題を解決するアルゴリズムを開発した。
このような確率的トレーニングプロセスにより、解空間探索におけるFMAの性能が向上する。
SFMAの性能とFMAの性能を比較するために,数値ベンチマークテストを実施している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Quantum computing and machine learning are state-of-the-art technologies which have been investigated intensively in both academia and industry. The hybrid technology of these two ingredients is expected to be a powerful tool to solve complex problems in many branches of science and engineering such as combinatorial optimization problems and accelerate the creation of next-generation technologies. In this work, we develop an algorithm to solve a black-box optimization problem by improving Factorization Machine Annealing (FMA) such that the training of a machine learning model called Factorization Machine is performed not by a full dataset but by a subdataset which is sampled from a full dataset: Subsampling Factorization Machine Annealing (SFMA). According to such a probabilistic training process, the performance of FMA on exploring a solution space gets enhanced. As a result, SFMA exhibits balanced performance of exploration and exploitation which we call exploitation-exploration functionality. We conduct numerical benchmarking tests to compare the performance of SFMA with that of FMA. Consequently, SFMA certainly exhibits the exploration-exploitation functionality and outperforms FMA in speed and accuracy. In addition, the performance of SFMA can be further improved by sequentially using two subsampling datasets with different sizes such that the size of the latter dataset is substantially smaller than the former. Such a substantial reduction not only enhances the exploration performance of SFMA but also enables us to run it with correspondingly low computational cost even for a large-scale problem. These results indicate the effectiveness of SFMA in a certain class of black-box optimization problems of significant size: the potential scalability of SFMA in solving large-scale problems with correspondingly low computational cost.
- Abstract(参考訳): 量子コンピューティングと機械学習は、学術と産業の両方で集中的に研究されている最先端の技術である。
これら2つの成分のハイブリッド技術は、組合せ最適化問題などの科学と工学の多くの分野における複雑な問題を解決する強力なツールであり、次世代技術の創出を促進することが期待されている。
本研究では、FMA(Facterization Machine Annealing)を改善してブラックボックス最適化問題を解決するアルゴリズムを開発し、Facterization Machineと呼ばれる機械学習モデルのトレーニングは、完全なデータセットではなく、完全なデータセットからサンプリングされたサブデータセットによって行われるようにした。
このような確率的トレーニングプロセスにより、解空間探索におけるFMAの性能が向上する。
その結果、SFMAは、エクスプロレーション探索機能と呼ばれる、探索と搾取のバランスの取れた性能を示す。
SFMAの性能とFMAの性能を比較するために,数値ベンチマークテストを実施している。
その結果、SFMAは明らかに探索探索機能を示し、FMAの速度と精度に優れる。
さらに、後者のデータセットのサイズが前よりも大幅に小さくなるように、異なるサイズの2つのサブサンプルデータセットを順次使用することにより、SFMAの性能をさらに向上することができる。
このような大幅な削減は、SFMAの探索性能を高めるだけでなく、大規模問題においても計算コストの低い実行を可能にします。
これらの結果から,計算コストの低い大規模問題の解法におけるSFMAの潜在的な拡張性について,ある種のブラックボックス最適化問題におけるSFMAの有効性が示唆された。
関連論文リスト
- Optimization Performance of Factorization Machine with Annealing under Limited Training Data [1.0937094979510213]
Black-box (BB) 最適化問題は、入力-出力関係が不明な関数の出力を最小化する入力を特定することを目的としている。
ファクトリゼーションマシン(FM)は、イジングマシンを介して解探索を反復的に導く代理モデルである。
本稿では,最近追加されたデータポイントの最大値を保持するシーケンシャルデータセット構築法を提案する。
論文 参考訳(メタデータ) (2025-07-28T17:45:10Z) - Reinforcement Learning-based Feature Generation Algorithm for Scientific Data [6.449769135199048]
特徴生成(FG)は、高次特徴の組み合わせを構築し、冗長な特徴を取り除くことにより、元のデータの予測可能性を高めることを目的としている。
本稿では、マルチエージェント特徴生成(MAFG)フレームワークを提案する。具体的には、マルチエージェントは、協調的に数学的変換方程式を構築し、高情報コンテンツを禁止した特徴組合せを合成し、識別し、強化学習機構を利用して戦略を進化させる。
論文 参考訳(メタデータ) (2025-07-04T11:52:09Z) - GSIFN: A Graph-Structured and Interlaced-Masked Multimodal Transformer-based Fusion Network for Multimodal Sentiment Analysis [0.0]
マルチモーダルセンチメント分析(MSA)は、複数のデータモーダルを利用して人間の感情を分析する。
既存のMSAモデルでは、MSA能力を促進するために、最先端のマルチモーダル融合と表現学習に基づく手法が一般的である。
提案するGSIFNは,これらの問題を解決するために2つの主成分を組み込んでいる。
これはInterlaced Mask機構を採用し、堅牢なマルチモーダルグラフ埋め込みを構築し、オールモーダルインワントランスフォーマーベースの融合を実現し、計算オーバーヘッドを大幅に削減する。
論文 参考訳(メタデータ) (2024-08-27T06:44:28Z) - FactorLLM: Factorizing Knowledge via Mixture of Experts for Large Language Models [50.331708897857574]
本稿では,高度に訓練された高密度FFNを余分なサブネットワークに分解する新しいアプローチであるFacterLLMを紹介する。
FactorLLMは、最大85%のモデル性能を確保しながら、推論速度を30%以上増加させながら、ソースモデルに匹敵するパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-08-15T16:45:16Z) - Hybrid Heuristic Algorithms for Adiabatic Quantum Machine Learning Models [2.7407913606612615]
本稿では"r-flip"戦略を取り入れた新しいハイブリッドアルゴリズムを提案する。
この戦略は、大規模QUBO問題をより効果的に解決し、より良いソリューション品質と低い計算コストを提供することを目的としている。
r-flipアプローチは、クロスドッキング、サプライチェーン管理、マシンスケジューリング、不正検出など、さまざまな分野に実用的応用がある。
論文 参考訳(メタデータ) (2024-07-26T19:31:58Z) - Filling the Missing: Exploring Generative AI for Enhanced Federated
Learning over Heterogeneous Mobile Edge Devices [72.61177465035031]
ローカルデータのFIMI(FIlling the MIssing)部分を活用することにより,これらの課題に対処する,AIを活用した創発的なフェデレーション学習を提案する。
実験の結果,FIMIはデバイス側エネルギーの最大50%を節約し,目標とするグローバルテスト精度を達成できることがわかった。
論文 参考訳(メタデータ) (2023-10-21T12:07:04Z) - Federated Conditional Stochastic Optimization [110.513884892319]
条件付き最適化は、不変学習タスク、AUPRC、AMLなど、幅広い機械学習タスクで見られる。
本稿では,分散フェデレーション学習のためのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-04T01:47:37Z) - Large Scale Mask Optimization Via Convolutional Fourier Neural Operator
and Litho-Guided Self Training [54.16367467777526]
マスクタスクを効率的に学習できる畳み込みニューラルネットワーク(CFCF)を提案する。
機械学習ベースのフレームワークが初めて、最先端の数値マスクデータセットを上回った。
論文 参考訳(メタデータ) (2022-07-08T16:39:31Z) - Machine Learning Framework for Quantum Sampling of Highly-Constrained,
Continuous Optimization Problems [101.18253437732933]
本研究では,連続空間の逆設計問題を,制約のないバイナリ最適化問題にマッピングする,汎用的な機械学習ベースのフレームワークを開発する。
本研究では, 熱発光トポロジを熱光応用に最適化し, (ii) 高効率ビームステアリングのための拡散メタグレーティングを行うことにより, 2つの逆設計問題に対するフレームワークの性能を示す。
論文 参考訳(メタデータ) (2021-05-06T02:22:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。