論文の概要: Scalable Infomin Learning
- arxiv url: http://arxiv.org/abs/2302.10701v1
- Date: Tue, 21 Feb 2023 14:40:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-22 14:54:25.168318
- Title: Scalable Infomin Learning
- Title(参考訳): スケーラブルな情報学習
- Authors: Yanzhi Chen, Weihao Sun, Yingzhen Li, Adrian Weller
- Abstract要約: インフォミン学習は、特定のターゲットについて非形式的でありながら、高いユーティリティで表現を学習することを目的としている。
情報マイニングの最近の研究は、主に相互情報を推定するためにニューラルネットワークをトレーニングする敵のトレーニングを使用している。
本稿では,情報交換のための新しいプロキシ・メトリックを用いた情報マイニング手法を提案する。
- 参考スコア(独自算出の注目度): 39.77171117174905
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The task of infomin learning aims to learn a representation with high utility
while being uninformative about a specified target, with the latter achieved by
minimising the mutual information between the representation and the target. It
has broad applications, ranging from training fair prediction models against
protected attributes, to unsupervised learning with disentangled
representations. Recent works on infomin learning mainly use adversarial
training, which involves training a neural network to estimate mutual
information or its proxy and thus is slow and difficult to optimise. Drawing on
recent advances in slicing techniques, we propose a new infomin learning
approach, which uses a novel proxy metric to mutual information. We further
derive an accurate and analytically computable approximation to this proxy
metric, thereby removing the need of constructing neural network-based mutual
information estimators. Experiments on algorithmic fairness, disentangled
representation learning and domain adaptation verify that our method can
effectively remove unwanted information with limited time budget.
- Abstract(参考訳): 情報マイニングの課題は、対象と対象との相互情報の最小化により、特定の対象に対して非形式的でありながら、高い実用性で表現を学習することである。
保護属性に対する公正な予測モデルのトレーニングから、非教師なしの表現による学習まで、幅広い応用がある。
近年のインフォミニストラーニングでは、ニューラルネットワークをトレーニングして相互情報やプロキシを推定するなど、敵のトレーニングが主に行われているため、最適化は遅く、困難である。
本稿では,近年のスライシング技術の進歩を踏まえ,相互情報に新たなプロキシメトリクスを用いたインフォミン学習手法を提案する。
さらに、このプロキシメトリックに正確かつ解析的に計算可能な近似を導出することにより、ニューラルネットワークに基づく相互情報推定器を構築する必要がなくなる。
アルゴリズムフェアネス,不整合表現学習,ドメイン適応の実験により,提案手法が時間的制約のある不要な情報を効果的に除去できることが確認された。
関連論文リスト
- Mind the Interference: Retaining Pre-trained Knowledge in Parameter Efficient Continual Learning of Vision-Language Models [79.28821338925947]
ドメインクラスのインクリメンタル学習は現実的だが、継続的な学習シナリオである。
これらの多様なタスクに対処するために、事前訓練されたビジョンランゲージモデル(VLM)を導入し、その強力な一般化性を実現する。
事前訓練されたVLMにエンコードされた知識は、新しいタスクに適応する際に妨げられ、固有のゼロショット能力を損なう。
既存の手法では、膨大なオーバーヘッドを必要とする余分なデータセットに知識蒸留でVLMをチューニングすることで、この問題に対処している。
我々は、事前学習した知識を保持できるDIKI(Distributed-Aware Interference-free Knowledge Integration)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-07T12:19:37Z) - Discriminative Adversarial Unlearning [40.30974185546541]
我々は、min-max最適化パラダイムの確立した原則に基づいて、新しい機械学習フレームワークを導入する。
我々は、訓練されたモデルから特定のサンプルの学習を容易にするために、強力なメンバーシップ推論攻撃(MIA)の能力を利用する。
提案アルゴリズムは,スクラッチから再学習する理想的なベンチマークを,ランダムサンプルの忘れ方とクラスワイドの忘れ方の両方に近似する。
論文 参考訳(メタデータ) (2024-02-10T03:04:57Z) - On Generalizing Beyond Domains in Cross-Domain Continual Learning [91.56748415975683]
ディープニューラルネットワークは、新しいタスクを学んだ後、これまで学んだ知識の破滅的な忘れ込みに悩まされることが多い。
提案手法は、ドメインシフト中の新しいタスクを精度良く学習することで、DomainNetやOfficeHomeといった挑戦的なデータセットで最大10%向上する。
論文 参考訳(メタデータ) (2022-03-08T09:57:48Z) - Fortuitous Forgetting in Connectionist Networks [20.206607130719696]
我々は,ニューラルネットワークの学習軌跡を形成するための強力なパラダイムとして,"forget-and-relearn"を紹介した。
forget-and-relearnフレームワークは、画像分類と言語出現文学において、多くの既存の反復的トレーニングアルゴリズムを統合する。
我々は、この理解を活用して、よりターゲットを絞った忘れ操作を設計することで、既存のアルゴリズムを改善する。
論文 参考訳(メタデータ) (2022-02-01T00:15:58Z) - Self-Adaptive Training: Bridging the Supervised and Self-Supervised
Learning [16.765461276790944]
自己適応型トレーニングは、追加の計算コストを課すことなく、モデル予測によってトレーニングプロセスを動的にキャリブレーションし、強化する統一型トレーニングアルゴリズムです。
ランダムノイズや敵対的な例など、破損したトレーニングデータの深層ネットワークのトレーニングダイナミクスを分析します。
分析の結果, モデル予測はデータ中の有用な情報量を拡大することが可能であり, 強調ラベル情報がない場合にも広く発生することがわかった。
論文 参考訳(メタデータ) (2021-01-21T17:17:30Z) - Information Theoretic Meta Learning with Gaussian Processes [74.54485310507336]
情報理論の概念,すなわち相互情報と情報のボトルネックを用いてメタ学習を定式化する。
相互情報に対する変分近似を用いることで、メタ学習のための汎用的かつトラクタブルな枠組みを導出する。
論文 参考訳(メタデータ) (2020-09-07T16:47:30Z) - Stylized Adversarial Defense [105.88250594033053]
逆行訓練は摂動パターンを生成し、モデルを堅牢化するためのトレーニングセットにそれらを含む。
我々は、より強力な敵を作るために、機能空間から追加情報を活用することを提案する。
我々の対人訓練アプローチは、最先端の防御と比べて強い堅牢性を示している。
論文 参考訳(メタデータ) (2020-07-29T08:38:10Z) - Adversarially-Trained Deep Nets Transfer Better: Illustration on Image
Classification [53.735029033681435]
トランスファーラーニングは、訓練済みのディープニューラルネットワークを画像認識タスクに新しいドメインに適用するための強力な方法論である。
本研究では,非逆学習モデルよりも逆学習モデルの方が優れていることを示す。
論文 参考訳(メタデータ) (2020-07-11T22:48:42Z) - Minimax Lower Bounds for Transfer Learning with Linear and One-hidden
Layer Neural Networks [27.44348371795822]
転送学習の限界を特徴付けるための統計的ミニマックスフレームワークを開発する。
ラベル付きソース数とターゲットデータの関数として,任意のアルゴリズムで達成可能なターゲット一般化誤差に対して,低いバウンドを導出する。
論文 参考訳(メタデータ) (2020-06-16T22:49:26Z) - Self-Supervised Relational Reasoning for Representation Learning [5.076419064097733]
自己教師型学習では、ラベルのないデータに対して代替ターゲットを定義することにより、代理目的を達成することを課題とする。
本稿では,学習者が無ラベルデータに暗黙的な情報から信号をブートストラップできる,新たな自己教師型関係推論法を提案する。
提案手法は,標準データセット,プロトコル,バックボーンを用いて,厳密な実験手順に従って評価する。
論文 参考訳(メタデータ) (2020-06-10T14:24:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。