論文の概要: HyperInvariances: Amortizing Invariance Learning
- arxiv url: http://arxiv.org/abs/2207.08304v1
- Date: Sun, 17 Jul 2022 21:40:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-20 03:04:24.795271
- Title: HyperInvariances: Amortizing Invariance Learning
- Title(参考訳): ハイパー不変性:不分散学習の償却
- Authors: Ruchika Chavhan, Henry Gouk, Jan St\"uhmer, Timothy Hospedales
- Abstract要約: 不変学習は高価で、一般的なニューラルネットワークにはデータ集約的です。
我々は、不変学習を償却する概念を導入する。
このフレームワークは、異なる下流タスクにおける適切な不変性を識別し、同等またはより良いテストパフォーマンスをもたらす。
- 参考スコア(独自算出の注目度): 10.189246340672245
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Providing invariances in a given learning task conveys a key inductive bias
that can lead to sample-efficient learning and good generalisation, if
correctly specified. However, the ideal invariances for many problems of
interest are often not known, which has led both to a body of engineering lore
as well as attempts to provide frameworks for invariance learning. However,
invariance learning is expensive and data intensive for popular neural
architectures. We introduce the notion of amortizing invariance learning. In an
up-front learning phase, we learn a low-dimensional manifold of feature
extractors spanning invariance to different transformations using a
hyper-network. Then, for any problem of interest, both model and invariance
learning are rapid and efficient by fitting a low-dimensional invariance
descriptor an output head. Empirically, this framework can identify appropriate
invariances in different downstream tasks and lead to comparable or better test
performance than conventional approaches. Our HyperInvariance framework is also
theoretically appealing as it enables generalisation-bounds that provide an
interesting new operating point in the trade-off between model fit and
complexity.
- Abstract(参考訳): 与えられた学習タスクに不変性を与えることは、サンプル効率のよい学習と適切な一般化につながる重要な帰納的バイアスを伝達する。
しかし、多くの関心のある問題に対する理想的な不変性はよく知られておらず、工学的な伝承と、不変学習のためのフレームワークの提供の両方につながっている。
しかし、不変学習は高価で、一般的なニューラルアーキテクチャではデータ集約的です。
不変学習の償却の概念を導入する。
先行学習フェーズでは、ハイパーネットワークを用いて異なる変換に分散する特徴抽出器の低次元多様体を学習する。
そして,低次元の不変記述子を出力ヘッドとするモデルと不変学習を高速かつ効率的に行う。
経験上、このフレームワークは、異なるダウンストリームタスクにおける適切な不変性を特定し、従来のアプローチと同等あるいは優れたテストパフォーマンスに導くことができる。
モデル適合性と複雑性の間のトレードオフにおいて興味深い新たな運用ポイントを提供する一般化バウンドを可能にするため、私たちのHyperInvarianceフレームワークも理論的に魅力的です。
関連論文リスト
- Relaxed Equivariance via Multitask Learning [7.905957228045955]
マルチタスク学習と等価性を近似するトレーニング手法であるREMULを紹介する。
制約のないモデルは、追加の単純な等分散損失を最小化することにより、近似対称性を学習できることが示される。
提案手法は, 等変ベースラインと比較して, 推論時の10倍, トレーニング時の2.5倍の速さで, 競争性能が向上する。
論文 参考訳(メタデータ) (2024-10-23T13:50:27Z) - Amortised Invariance Learning for Contrastive Self-Supervision [11.042648980854485]
対照的な自己監督のために, 償却不変学習の概念を導入する。
我々のアモーテッド機能は、異なる不変条件で様々な下流タスクを学習する信頼性の高い方法を提供することを示す。
これは、汎用表現学習の分野での新しい地平を開くエキサイティングな視点を提供する。
論文 参考訳(メタデータ) (2023-02-24T16:15:11Z) - Equivariance with Learned Canonicalization Functions [77.32483958400282]
正規化を行うために小さなニューラルネットワークを学習することは、事前定義を使用することよりも優れていることを示す。
実験の結果,正準化関数の学習は多くのタスクで同変関数を学習する既存の手法と競合することがわかった。
論文 参考訳(メタデータ) (2022-11-11T21:58:15Z) - In What Ways Are Deep Neural Networks Invariant and How Should We
Measure This? [5.757836174655293]
我々は、これらの特性を損失や精度などの他の指標から切り離す方法で定量化することができる、不変および等分散メトリクスのファミリーを導入する。
本研究では,事前学習した重み付きモデルの初期化がトレーニングモデルの不変性に影響を及ぼすか否かから,トレーニングによって学習した不変性が分布外データに一般化できる範囲まで,ディープラーニングモデルにおける不変性と等価性に関するさまざまな結論を導出する。
論文 参考訳(メタデータ) (2022-10-07T18:43:21Z) - Equivariance and Invariance Inductive Bias for Learning from
Insufficient Data [65.42329520528223]
不十分なデータがモデルを、通常テストとは異なる限られたトレーニング環境にバイアスしやすくする理由が示されています。
従来のIRMにおける環境アノテーションの欠如を効果的に解決するクラスワイド不変リスク最小化(IRM)を提案する。
論文 参考訳(メタデータ) (2022-07-25T15:26:19Z) - Regularising for invariance to data augmentation improves supervised
learning [82.85692486314949]
入力毎に複数の拡張を使用すれば、一般化が向上することを示す。
本稿では,個々のモデル予測のレベルにおいて,この不変性を助長する明示的な正規化手法を提案する。
論文 参考訳(メタデータ) (2022-03-07T11:25:45Z) - Deep invariant networks with differentiable augmentation layers [87.22033101185201]
データ拡張ポリシーの学習方法は、保持データを必要とし、二段階最適化の問題に基づいている。
我々のアプローチは、現代の自動データ拡張技術よりも訓練が簡単で高速であることを示す。
論文 参考訳(メタデータ) (2022-02-04T14:12:31Z) - Why Do Self-Supervised Models Transfer? Investigating the Impact of
Invariance on Downstream Tasks [79.13089902898848]
自己教師付き学習は、非競合画像上での表現学習の強力なパラダイムである。
コンピュータビジョンにおける異なるタスクは、異なる(不変の)分散を符号化する機能を必要とすることを示す。
論文 参考訳(メタデータ) (2021-11-22T18:16:35Z) - What causes the test error? Going beyond bias-variance via ANOVA [21.359033212191218]
現代の機械学習手法は、しばしば過度にパラメータ化され、細かいレベルでのデータへの適応を可能にする。
最近の研究は、なぜ過度なパラメータ化が一般化に役立つのかをより深く理解することを目的としている。
本研究では, 差分解析(ANOVA)を用いて, テスト誤差の分散を対称的に分解する手法を提案する。
論文 参考訳(メタデータ) (2020-10-11T05:21:13Z) - What Should Not Be Contrastive in Contrastive Learning [110.14159883496859]
本稿では,タスク依存不変性に関する事前知識を必要としない,対照的な学習フレームワークを提案する。
我々のモデルは、異なる埋め込み空間を構築することで、視覚表現の様々な要因や不変要素を捉えることを学習する。
我々は、共有バックボーンを持つマルチヘッドネットワークを使用し、各オーグメンテーションにまたがる情報をキャプチャし、ダウンストリームタスクにおけるすべてのベースラインより優れている。
論文 参考訳(メタデータ) (2020-08-13T03:02:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。