論文の概要: A Primal-Dual Subgradient Approachfor Fair Meta Learning
- arxiv url: http://arxiv.org/abs/2009.12675v3
- Date: Tue, 9 Mar 2021 04:00:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-14 08:27:02.808795
- Title: A Primal-Dual Subgradient Approachfor Fair Meta Learning
- Title(参考訳): 公正なメタ学習のための2段階の予備的アプローチ
- Authors: Chen Zhao, Feng Chen, Zhuoyi Wang, Latifur Khan
- Abstract要約: ショットのメタ学習は、その高速適応能力と、未知のタスクへの精度の一般化で有名である。
そこで本研究では,ごく少数の例を用いて,公正な機械学習モデルのトレーニングを学習するPrimal-Dual Meta-learningフレームワーク,すなわちPDFMを提案する。
- 参考スコア(独自算出の注目度): 23.65344558042896
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The problem of learning to generalize to unseen classes during training,
known as few-shot classification, has attracted considerable attention.
Initialization based methods, such as the gradient-based model agnostic
meta-learning (MAML), tackle the few-shot learning problem by "learning to
fine-tune". The goal of these approaches is to learn proper model
initialization, so that the classifiers for new classes can be learned from a
few labeled examples with a small number of gradient update steps. Few shot
meta-learning is well-known with its fast-adapted capability and accuracy
generalization onto unseen tasks. Learning fairly with unbiased outcomes is
another significant hallmark of human intelligence, which is rarely touched in
few-shot meta-learning. In this work, we propose a Primal-Dual Fair
Meta-learning framework, namely PDFM, which learns to train fair machine
learning models using only a few examples based on data from related tasks. The
key idea is to learn a good initialization of a fair model's primal and dual
parameters so that it can adapt to a new fair learning task via a few gradient
update steps. Instead of manually tuning the dual parameters as hyperparameters
via a grid search, PDFM optimizes the initialization of the primal and dual
parameters jointly for fair meta-learning via a subgradient primal-dual
approach. We further instantiate examples of bias controlling using mean
difference and decision boundary covariance as fairness constraints to each
task for supervised regression and classification, respectively. We demonstrate
the versatility of our proposed approach by applying our approach to various
real-world datasets. Our experiments show substantial improvements over the
best prior work for this setting.
- Abstract(参考訳): 授業中に見知らぬクラスを一般化する学習の問題は、ほとんどショット分類と呼ばれており、注目されている。
グラデーションベースモデル非依存メタラーニング(maml)のような初期化ベースの手法は、"微調整への学習"によって、少数の学習問題に取り組む。
これらの手法の目標は、モデルの初期化を適切に学習することであり、新しいクラスの分類器は、少数の段階的な更新ステップを持つラベル付き例から学習することができる。
ショットのメタ学習は、その高速適応能力と、未知のタスクへの精度の一般化で有名である。
偏見のない結果で公平に学習することは、人間の知能のもう一つの重要な目印である。
そこで本研究では,関連するタスクのデータに基づいて,数例のみを用いて公正な機械学習モデルを学習する,Primal-Dual Fairメタ学習フレームワークであるPDFMを提案する。
鍵となるアイデアは、フェアモデルのプライマリパラメータとデュアルパラメータの適切な初期化を学習し、グラデーション更新ステップによって新しいフェアラーニングタスクに適応できるようにすることである。
手動でグリッドサーチによって双対パラメータをハイパーパラメータとして調整する代わりに、PDFMは、下位の原始双対アプローチによる公平なメタラーニングのために、原始パラメータと双対パラメータの初期化を最適化する。
さらに,各タスクに対する公平性制約として平均差と決定境界共分散を用いたバイアス制御の例を示す。
本手法を様々な実世界データセットに適用することにより,提案手法の汎用性を示す。
我々の実験は、この設定の最高の事前作業よりも大幅に改善されている。
関連論文リスト
- Complementary Learning Subnetworks for Parameter-Efficient
Class-Incremental Learning [40.13416912075668]
本稿では,2つの補完学習サブネットワークス間のシナジーを通じて連続的に学習するリハーサルフリーなCILアプローチを提案する。
提案手法は, 精度向上, メモリコスト, トレーニング効率, タスク順序など, 最先端手法と競合する結果が得られる。
論文 参考訳(メタデータ) (2023-06-21T01:43:25Z) - Learning to Learn with Indispensable Connections [6.040904021861969]
本稿では,メタ-LTHと呼ばれるメタ-LTHと呼ばれるメタ-ラーニング手法を提案する。
本手法は,オムニグロットデータセットの分類精度を約2%向上させる。
論文 参考訳(メタデータ) (2023-04-06T04:53:13Z) - Gradient-Based Meta-Learning Using Uncertainty to Weigh Loss for
Few-Shot Learning [5.691930884128995]
Model-Agnostic Meta-Learning (MAML)は、数発の学習において最も成功したメタラーニング手法の1つである。
タスク固有の学習者に対して,タスクの損失を最小限に抑えるパラメータの選択を適応的に学習する手法を提案する。
メソッド1はメタロス差を比較して重みを生成し、クラスが少ない場合の精度を向上させる。
方法2は、各タスクの相補的不確実性を導入し、元の勾配降下に基づいて複数の損失を重み付けする。
論文 参考訳(メタデータ) (2022-08-17T08:11:51Z) - Lightweight Conditional Model Extrapolation for Streaming Data under
Class-Prior Shift [27.806085423595334]
非定常ストリーミングデータを用いて学習する新しい方法であるLIMESを紹介する。
我々は、特定のデータ分布に対する特定の分類器を導出するモデルパラメータの集合を1つ学習する。
Twitterデータを用いた一連の模範的なタスクの実験では、LIMESが代替手法よりも高い精度を達成することが示された。
論文 参考訳(メタデータ) (2022-06-10T15:19:52Z) - Learning What Not to Segment: A New Perspective on Few-Shot Segmentation [63.910211095033596]
近年では、FSS ( few-shot segmentation) が広く開発されている。
本稿では,問題を緩和するための新鮮で直接的な知見を提案する。
提案されたアプローチのユニークな性質を踏まえて、より現実的で挑戦的な設定にまで拡張する。
論文 参考訳(メタデータ) (2022-03-15T03:08:27Z) - Model-Agnostic Multitask Fine-tuning for Few-shot Vision-Language
Transfer Learning [59.38343286807997]
未知タスクの視覚言語モデルのためのモデル非依存型マルチタスクファインチューニング(MAMF)を提案する。
モデルに依存しないメタラーニング(MAML)と比較して、MAMFは二段階最適化を捨て、一階勾配のみを使用する。
MAMFは5つのベンチマークデータセット上で、数ショットの転送学習において古典的な微調整法よりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-03-09T17:26:53Z) - Learning an Explicit Hyperparameter Prediction Function Conditioned on
Tasks [62.63852372239708]
メタ学習は、観察されたタスクから機械学習の学習方法論を学び、新しいクエリタスクに一般化することを目的としている。
我々は、これらの学習手法を、全てのトレーニングタスクで共有される明示的なハイパーパラメータ予測関数の学習として解釈する。
このような設定は、メタ学習方法論が多様なクエリタスクに柔軟に適合できることを保証する。
論文 参考訳(メタデータ) (2021-07-06T04:05:08Z) - Meta-Regularization by Enforcing Mutual-Exclusiveness [0.8057006406834467]
本稿では,メタ学習時の情報フローをモデル設計者が制御できるように,メタ学習モデルの正規化手法を提案する。
提案した正規化関数は,Omniglotデータセット上で$sim$$36%の精度向上を示す。
論文 参考訳(メタデータ) (2021-01-24T22:57:19Z) - Variable-Shot Adaptation for Online Meta-Learning [123.47725004094472]
従来のタスクから静的データにまたがるメタラーニングによって,少数の固定された例から新しいタスクを学習する問題について検討する。
メタラーニングは,従来の教師付き手法に比べて,ラベルの総数が少なく,累積性能も高いタスクセットを解く。
これらの結果から,メタラーニングは,一連の問題を継続的に学習し,改善する学習システムを構築する上で重要な要素であることが示唆された。
論文 参考訳(メタデータ) (2020-12-14T18:05:24Z) - Meta-learning the Learning Trends Shared Across Tasks [123.10294801296926]
グラディエントベースのメタ学習アルゴリズムは、限られたデータで新しいタスクに素早く適応する。
既存のメタ学習アプローチは、適応中の現在のタスク情報にのみ依存する。
パターン認識型メタラーニング手法を提案する。
論文 参考訳(メタデータ) (2020-10-19T08:06:47Z) - Fast Few-Shot Classification by Few-Iteration Meta-Learning [173.32497326674775]
数ショット分類のための高速な最適化に基づくメタラーニング手法を提案する。
我々の戦略はメタ学習において学習すべき基礎学習者の目的の重要な側面を可能にする。
我々は、我々のアプローチの速度と効果を実証し、総合的な実験分析を行う。
論文 参考訳(メタデータ) (2020-10-01T15:59:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。