論文の概要: FIRAL: An Active Learning Algorithm for Multinomial Logistic Regression
- arxiv url: http://arxiv.org/abs/2409.07379v1
- Date: Wed, 11 Sep 2024 16:11:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-12 13:53:24.301117
- Title: FIRAL: An Active Learning Algorithm for Multinomial Logistic Regression
- Title(参考訳): FIRAL: 多項ロジスティック回帰のためのアクティブラーニングアルゴリズム
- Authors: Youguang Chen, George Biros,
- Abstract要約: マルチクラス分類のためのプール型アクティブラーニングの理論とアルゴリズムについて検討する。
本稿では,過度のリスクを最小限に抑えるために,後悔の最小化を利用した能動的学習アルゴリズムを提案する。
我々のスキームは、多クラスロジスティック回帰設定において最小の分類誤差を一貫して生成する。
- 参考スコア(独自算出の注目度): 3.4245017707416148
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We investigate theory and algorithms for pool-based active learning for multiclass classification using multinomial logistic regression. Using finite sample analysis, we prove that the Fisher Information Ratio (FIR) lower and upper bounds the excess risk. Based on our theoretical analysis, we propose an active learning algorithm that employs regret minimization to minimize the FIR. To verify our derived excess risk bounds, we conduct experiments on synthetic datasets. Furthermore, we compare FIRAL with five other methods and found that our scheme outperforms them: it consistently produces the smallest classification error in the multiclass logistic regression setting, as demonstrated through experiments on MNIST, CIFAR-10, and 50-class ImageNet.
- Abstract(参考訳): 多項ロジスティック回帰を用いた多クラス分類のためのプール型アクティブラーニングの理論とアルゴリズムについて検討する。
有限サンプル分析を用いて,FIR(Fisher Information Ratio)が過大なリスクを負うことを証明した。
理論的解析に基づき,FIRの最小化のために,後悔の最小化を利用する能動的学習アルゴリズムを提案する。
得られた過剰なリスク境界を検証するために、我々は合成データセットの実験を行う。
MNIST, CIFAR-10, 50-class ImageNetで実証されたように, 多クラスロジスティック回帰設定において最小の分類誤差を連続的に生成する。
関連論文リスト
- Model-Based RL for Mean-Field Games is not Statistically Harder than Single-Agent RL [57.745700271150454]
モデルに基づく関数近似を用いた平均フィールドゲーム(MFG)における強化学習のサンプル複雑性について検討した。
本稿では、モデルクラスの複雑性を特徴付けるためのより効果的な概念である部分モデルベースエルダー次元(P-MBED)を紹介する。
論文 参考訳(メタデータ) (2024-02-08T14:54:47Z) - Querying Easily Flip-flopped Samples for Deep Active Learning [63.62397322172216]
アクティブラーニング(英: Active Learning)は、ラベルのないデータを戦略的に選択してクエリすることで、モデルの性能を向上させることを目的とした機械学習パラダイムである。
効果的な選択戦略の1つはモデルの予測の不確実性に基づくもので、サンプルがどの程度情報的であるかの尺度として解釈できる。
本稿では,予測されたラベルの不一致の最小確率として,最小不一致距離(LDM)を提案する。
論文 参考訳(メタデータ) (2024-01-18T08:12:23Z) - Vector-Valued Least-Squares Regression under Output Regularity
Assumptions [73.99064151691597]
最小二乗回帰問題を無限次元出力で解くために,還元ランク法を提案し,解析する。
提案手法の学習バウンダリを導出し、フルランク手法と比較して統計的性能の設定を改善する研究を行う。
論文 参考訳(メタデータ) (2022-11-16T15:07:00Z) - Federated Latent Class Regression for Hierarchical Data [5.110894308882439]
フェデレートラーニング(FL)は、多くのエージェントがローカルに保存されたデータを開示することなく、グローバル機械学習モデルのトレーニングに参加することを可能にする。
本稿では,新しい確率モデルである階層潜在クラス回帰(HLCR)を提案し,フェデレートラーニング(FEDHLCR)への拡張を提案する。
我々の推論アルゴリズムはベイズ理論から派生したもので、強い収束保証と過剰適合性を提供する。実験結果から、FEDHLCRは非IIDデータセットにおいても高速収束を提供することが示された。
論文 参考訳(メタデータ) (2022-06-22T00:33:04Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Investigating the Scalability and Biological Plausibility of the
Activation Relaxation Algorithm [62.997667081978825]
アクティベーション・リラクシエーション(AR)アルゴリズムは、誤りアルゴリズムのバックプロパゲーションを近似するためのシンプルでロバストなアプローチを提供する。
このアルゴリズムは、学習可能な後方重みセットを導入することにより、さらに単純化され、生物学的に検証可能であることを示す。
また、元のARアルゴリズム(凍結フィードフォワードパス)の別の生物学的に信じられない仮定が、パフォーマンスを損なうことなく緩和できるかどうかについても検討する。
論文 参考訳(メタデータ) (2020-10-13T08:02:38Z) - Reparameterized Variational Divergence Minimization for Stable Imitation [57.06909373038396]
確率的発散の選択における変動が、より高性能なILOアルゴリズムをもたらす可能性について検討する。
本稿では,提案する$f$-divergence最小化フレームワークの課題を軽減するために,逆模倣学習のための再パラメータ化手法を提案する。
経験的に、我々の設計選択は、ベースラインアプローチより優れ、低次元連続制御タスクにおける専門家のパフォーマンスとより密に適合するIOOアルゴリズムを許容することを示した。
論文 参考訳(メタデータ) (2020-06-18T19:04:09Z) - Learning with CVaR-based feedback under potentially heavy tails [8.572654816871873]
条件付きリスク(CVaR)の最小化を目指す学習アルゴリズムについて検討する。
まず,重み付き確率変数に対するCVaRの汎用推定器について検討する。
次に、勾配駆動サブプロセスによって生成される候補の中から頑健に選択する新しい学習アルゴリズムを導出する。
論文 参考訳(メタデータ) (2020-06-03T01:08:29Z) - On the Learning Property of Logistic and Softmax Losses for Deep Neural
Networks [22.588234843948662]
対物的およびソフトマックスの損失で訓練された深層畳み込みニューラルネットワーク(CNN)は、コンピュータビジョンにおける視覚認識タスクを著しく進歩させた。
トレーニングデータがクラス不均衡を示す場合、クラスワイドのロジスティックとソフトマックスの損失は、非重み付きバージョンの性能を高めるためにしばしば使用される。
我々は,これらの2つの損失関数の学習特性を,CNNが局所最小値に収束するように訓練した後,必要な条件(例えば,勾配は0に等しい)を解析することによって説明する。
論文 参考訳(メタデータ) (2020-03-04T19:58:02Z) - PIANO: A Fast Parallel Iterative Algorithm for Multinomial and Sparse
Multinomial Logistic Regression [0.0]
PIANOはスパース多項ロジスティック回帰問題を解くために容易に拡張可能であることを示す。
また, PIANO が多項系およびスパース多項系ロジスティック回帰問題の定常点に収束することが証明された。
論文 参考訳(メタデータ) (2020-02-21T05:15:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。