論文の概要: Transfer learning extensions for the probabilistic classification vector
machine
- arxiv url: http://arxiv.org/abs/2007.07090v1
- Date: Sat, 11 Jul 2020 08:35:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 13:18:00.191624
- Title: Transfer learning extensions for the probabilistic classification vector
machine
- Title(参考訳): 確率的分類ベクターマシンのための転送学習拡張
- Authors: Christoph Raab and Frank-Michael Schleif
- Abstract要約: スパースと解釈可能な確率的分類ベクトルマシンに統合された2つの伝達学習拡張を提案する。
それらのベンチマークは、この分野の標準ベンチマークと比較され、その妥当性はスパーシリティまたはパフォーマンスの改善によって示される。
- 参考スコア(独自算出の注目度): 1.6244541005112747
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Transfer learning is focused on the reuse of supervised learning models in a
new context. Prominent applications can be found in robotics, image processing
or web mining. In these fields, the learning scenarios are naturally changing
but often remain related to each other motivating the reuse of existing
supervised models. Current transfer learning models are neither sparse nor
interpretable. Sparsity is very desirable if the methods have to be used in
technically limited environments and interpretability is getting more critical
due to privacy regulations. In this work, we propose two transfer learning
extensions integrated into the sparse and interpretable probabilistic
classification vector machine. They are compared to standard benchmarks in the
field and show their relevance either by sparsity or performance improvements.
- Abstract(参考訳): 転送学習は、新しいコンテキストにおける教師あり学習モデルの再利用に焦点を当てている。
顕著な応用はロボティクス、画像処理、ウェブマイニングで見ることができる。
これらの分野では、学習シナリオは自然に変化しているが、多くの場合、既存の教師付きモデルの再利用を動機付けている。
現在の伝達学習モデルはスパースでも解釈可能でもない。
技術的に制限された環境での使用が必要で、プライバシの規制によって解釈性がより重要になっている場合、スパーシティは極めて望ましい。
本研究では,sparse and interpretable probabilistic classification vector machineに統合された2つのトランスファー学習拡張を提案する。
それらはこの分野の標準ベンチマークと比較され、スパーシティまたはパフォーマンス改善によってその関連性を示す。
関連論文リスト
- Premonition: Using Generative Models to Preempt Future Data Changes in
Continual Learning [63.850451635362425]
継続的な学習には、データ分散の継続的な変化に対応するためのモデルが必要である。
本稿では,大規模言語モデルと画像生成モデルの組み合わせが有用であることを示す。
トレーニング済みネットワークのバックボーンは、下流の連続学習問題に有用な表現を学習できることがわかった。
論文 参考訳(メタデータ) (2024-03-12T06:29:54Z) - Visual Affordance Prediction for Guiding Robot Exploration [56.17795036091848]
我々は,ロボット探索を導くための視覚能力の学習手法を開発した。
VQ-VAEの潜伏埋め込み空間における条件分布の学習にはTransformerベースのモデルを用いる。
本稿では,ロボット操作における視覚的目標条件付きポリシー学習において,目標サンプリング分布として機能することで探索を導くために,トレーニングされた余裕モデルをどのように利用できるかを示す。
論文 参考訳(メタデータ) (2023-05-28T17:53:09Z) - Maximizing Model Generalization for Machine Condition Monitoring with
Self-Supervised Learning and Federated Learning [4.214064911004321]
Deep Learningは、手動で設計された統計的特徴なしで、障害を診断し、生の状態監視データからマシンの健康を評価する。
伝統的な教師付き学習は、目に見えない対象ドメインに一般化するコンパクトで差別的な表現を学ぶのに苦労することがある。
本研究は,対象領域にモデルをコピーするために,ソース領域における特徴一般化の最大化と重み移動によるTLの適用に焦点をあてる。
論文 参考訳(メタデータ) (2023-04-27T17:57:54Z) - Stochastic Coherence Over Attention Trajectory For Continuous Learning
In Video Streams [64.82800502603138]
本稿では,映像ストリーム中のピクセルワイズ表現を段階的かつ自律的に開発するための,ニューラルネットワークに基づく新しいアプローチを提案する。
提案手法は, 参加者の入場地を観察することで, エージェントが学習できる, 人間の様の注意機構に基づく。
実験では,3次元仮想環境を利用して,映像ストリームを観察することで,エージェントが物体の識別を学べることを示す。
論文 参考訳(メタデータ) (2022-04-26T09:52:31Z) - Learning to Generate Novel Classes for Deep Metric Learning [24.048915378172012]
本稿では,新しいクラスとその埋め込みベクトルを合成するデータ拡張手法を提案する。
クラスラベルとノイズを与えられた条件付き生成モデルを学習し、活用することにより、クラスにランダムな埋め込みベクトルを生成する。
提案したジェネレータは,現実的で多様なクラスを増大させることで,よりリッチなクラス関係を利用でき,その結果,見つからないサンプルをより一般化することができる。
論文 参考訳(メタデータ) (2022-01-04T06:55:19Z) - Detecting Bias in Transfer Learning Approaches for Text Classification [3.968023038444605]
教師付き学習環境では、ラベルは常に分類タスクに必要である。
本研究では,不均衡なクラスのバイアスを検出するために,既存の移動学習手法の評価を行う。
論文 参考訳(メタデータ) (2021-02-03T15:48:21Z) - What is being transferred in transfer learning? [51.6991244438545]
事前訓練した重量からトレーニングを行うと、モデルは損失景観の同じ流域に留まることを示す。
事前学習した重みからトレーニングする場合、モデルは損失ランドスケープの同じ流域に留まり、そのようなモデルの異なるインスタンスは特徴空間と類似しており、パラメータ空間は近接している。
論文 参考訳(メタデータ) (2020-08-26T17:23:40Z) - Do Adversarially Robust ImageNet Models Transfer Better? [102.09335596483695]
逆向きに堅牢なモデルは、トランスファーラーニングに使用する場合、標準訓練されたモデルよりもよく機能する。
私たちの結果は、ロバストさが機能表現の改善につながるという最近の仮説と一致しています。
論文 参考訳(メタデータ) (2020-07-16T17:42:40Z) - Explicit Domain Adaptation with Loosely Coupled Samples [85.9511585604837]
本稿では,ドメイン間の明示的なマッピングを学習するトランスファーラーニングフレームワークを提案する。
その解釈可能性のために、これは自律運転のような安全クリティカルなアプリケーションにとって有益である。
論文 参考訳(メタデータ) (2020-04-24T21:23:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。