論文の概要: Feature Selection for Classification with QAOA
- arxiv url: http://arxiv.org/abs/2211.02861v1
- Date: Sat, 5 Nov 2022 09:28:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 19:06:51.359669
- Title: Feature Selection for Classification with QAOA
- Title(参考訳): QAOAを用いた分類のための特徴選択
- Authors: Gloria Turati, Maurizio Ferrari Dacrema, Paolo Cremonesi
- Abstract要約: 特徴選択は機械学習において非常に重要であり、分類、ランク付け、予測問題の次元化に使用できる。
我々は特に、すでに最適化に使われている近似量子最適化(QAOA)に対処できる二次的特徴選択問題を考える。
実験では,次元が21まで異なる7つの実世界のデータセットについて検討し,量子シミュレータと小型データセットの両方でQAOAを実行する。
- 参考スコア(独自算出の注目度): 11.516147824168732
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Feature selection is of great importance in Machine Learning, where it can be
used to reduce the dimensionality of classification, ranking and prediction
problems. The removal of redundant and noisy features can improve both the
accuracy and scalability of the trained models. However, feature selection is a
computationally expensive task with a solution space that grows
combinatorically. In this work, we consider in particular a quadratic feature
selection problem that can be tackled with the Quantum Approximate Optimization
Algorithm (QAOA), already employed in combinatorial optimization. First we
represent the feature selection problem with the QUBO formulation, which is
then mapped to an Ising spin Hamiltonian. Then we apply QAOA with the goal of
finding the ground state of this Hamiltonian, which corresponds to the optimal
selection of features. In our experiments, we consider seven different
real-world datasets with dimensionality up to 21 and run QAOA on both a quantum
simulator and, for small datasets, the 7-qubit IBM (ibm-perth) quantum
computer. We use the set of selected features to train a classification model
and evaluate its accuracy. Our analysis shows that it is possible to tackle the
feature selection problem with QAOA and that currently available quantum
devices can be used effectively. Future studies could test a wider range of
classification models as well as improve the effectiveness of QAOA by exploring
better performing optimizers for its classical step.
- Abstract(参考訳): 特徴の選択は機械学習において非常に重要であり、分類、ランク付け、予測問題の次元性を減らすのに使うことができる。
冗長でノイズの多い機能を取り除くことで、トレーニングされたモデルの精度とスケーラビリティが向上する。
しかし、機能選択はコンビネータ的に増加する解空間を持つ計算コストの高いタスクである。
本研究では,量子近似最適化アルゴリズム (qaoa) が組合わせ最適化に既に採用している二次的特徴選択問題について考察する。
まずQUBOの定式化で特徴選択問題を表現し、イジングスピンハミルトニアンに写像する。
次に、このハミルトン的特徴の最適選択に対応する基底状態を求めることを目標としてQAOAを適用する。
実験では、最大21次元の7つの実世界データセットを検討し、量子シミュレータと小さなデータセットの両方でqaoaを実行し、7量子ビットibm(ibm-perth)量子コンピュータを動作させる。
選択した特徴の集合を用いて分類モデルを訓練し、その精度を評価する。
分析の結果,QAOAでは特徴選択の問題に対処でき,現在利用可能な量子デバイスを効果的に利用することができることがわかった。
将来の研究では、より広い範囲の分類モデルをテストするとともに、古典的なステップのためにより良いパフォーマンスのオプティマイザを探索することで、QAOAの有効性を向上させることができる。
関連論文リスト
- Accelerated zero-order SGD under high-order smoothness and overparameterized regime [79.85163929026146]
凸最適化問題を解くための新しい勾配のないアルゴリズムを提案する。
このような問題は医学、物理学、機械学習で発生する。
両種類の雑音下で提案アルゴリズムの収束保証を行う。
論文 参考訳(メタデータ) (2024-11-21T10:26:17Z) - Feature Selection as Deep Sequential Generative Learning [50.00973409680637]
本研究では, 逐次再構成, 変分, 性能評価器の損失を伴って, 深部変分変圧器モデルを構築した。
提案モデルでは,特徴選択の知識を抽出し,連続的な埋め込み空間を学習し,特徴選択決定シーケンスをユーティリティスコアに関連付けられた埋め込みベクトルにマッピングする。
論文 参考訳(メタデータ) (2024-03-06T16:31:56Z) - Compact NSGA-II for Multi-objective Feature Selection [0.24578723416255746]
特徴選択を,分類精度を最大化し,選択した特徴数の最小化を目的とした多目的バイナリ最適化タスクとして定義する。
最適な特徴を選択するために,2進圧縮型NSGA-II (CNSGA-II) アルゴリズムを提案する。
我々の知る限りでは、これは特徴選択のために提案された最初のコンパクトな多目的アルゴリズムである。
論文 参考訳(メタデータ) (2024-02-20T01:10:12Z) - Tree ensemble kernels for Bayesian optimization with known constraints
over mixed-feature spaces [54.58348769621782]
木アンサンブルはアルゴリズムチューニングやニューラルアーキテクチャ検索といったブラックボックス最適化タスクに適している。
ブラックボックス最適化にツリーアンサンブルを使うことの2つのよく知られた課題は、探索のためのモデル不確実性を効果的に定量化し、また、 (ii) ピースワイドな定値取得関数を最適化することである。
我々のフレームワークは、連続/離散的機能に対する非拘束ブラックボックス最適化のための最先端の手法と同様に、混合変数の特徴空間と既知の入力制約を組み合わせた問題の競合する手法よりも優れている。
論文 参考訳(メタデータ) (2022-07-02T16:59:37Z) - Fair Feature Subset Selection using Multiobjective Genetic Algorithm [0.0]
フェアネスと精度を両立させる特徴部分選択手法を提案する。
モデル性能の指標としてF1-Scoreを用いる。
最も一般的なフェアネスベンチマークデータセットの実験では、進化的アルゴリズムを用いることで、フェアネスと精度のトレードオフを効果的に探索できることが示されている。
論文 参考訳(メタデータ) (2022-04-30T22:51:19Z) - Compactness Score: A Fast Filter Method for Unsupervised Feature
Selection [66.84571085643928]
本稿では,CSUFS (Compactness Score) と呼ばれる高速な教師なし特徴選択手法を提案する。
提案アルゴリズムは既存のアルゴリズムよりも正確で効率的である。
論文 参考訳(メタデータ) (2022-01-31T13:01:37Z) - Quantum Approximate Optimization Algorithm Based Maximum Likelihood
Detection [80.28858481461418]
量子技術の最近の進歩は、ノイズの多い中間スケール量子(NISQ)デバイスへの道を開く。
量子技術の最近の進歩は、ノイズの多い中間スケール量子(NISQ)デバイスへの道を開く。
論文 参考訳(メタデータ) (2021-07-11T10:56:24Z) - Towards Explainable Exploratory Landscape Analysis: Extreme Feature
Selection for Classifying BBOB Functions [4.932130498861987]
驚くほど少数の機能(多くの場合4つ未満)が、98%の精度を達成するのに十分であることを示している。
分類精度は、いくつかのインスタンスがトレーニングやテストに関わっている設定に変換されることを示す。
論文 参考訳(メタデータ) (2021-02-01T10:04:28Z) - Evaluation of QAOA based on the approximation ratio of individual
samples [0.0]
我々は、Max-Cut問題に適用されたQAOAの性能をシミュレートし、いくつかの古典的代替品と比較する。
QAOA計算複雑性理論のガイダンスが進化しているため、量子的優位性を求めるためのフレームワークを利用する。
論文 参考訳(メタデータ) (2020-06-08T18:00:18Z) - A novel embedded min-max approach for feature selection in nonlinear
support vector machine classification [0.0]
min-max最適化問題に基づく組込み特徴選択法を提案する。
双対性理論を活用することにより、min-max問題を等価に修正し、それ以上のアドを伴わずに解決する。
提案手法の効率性と有用性は,いくつかのベンチマークデータセットで検証される。
論文 参考訳(メタデータ) (2020-04-21T09:40:38Z) - Stepwise Model Selection for Sequence Prediction via Deep Kernel
Learning [100.83444258562263]
本稿では,モデル選択の課題を解決するために,新しいベイズ最適化(BO)アルゴリズムを提案する。
結果として得られる複数のブラックボックス関数の最適化問題を協調的かつ効率的に解くために,ブラックボックス関数間の潜在的な相関を利用する。
我々は、シーケンス予測のための段階的モデル選択(SMS)の問題を初めて定式化し、この目的のために効率的な共同学習アルゴリズムを設計し、実証する。
論文 参考訳(メタデータ) (2020-01-12T09:42:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。