論文の概要: Bayesian Transfer Learning
- arxiv url: http://arxiv.org/abs/2312.13484v1
- Date: Wed, 20 Dec 2023 23:38:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-22 16:27:39.787856
- Title: Bayesian Transfer Learning
- Title(参考訳): ベイズ転校学習
- Authors: Piotr M. Suder, Jason Xu, David B. Dunson
- Abstract要約: トランスファーラーニング」は、関連分野のデータを活用することにより、関心領域における推論および/または予測精度の向上を目指す。
本稿では,新しい学習課題を導く上で,事前知識に基づく学習の概念と自然に相容れないにもかかわらず,比較的注意を払われたバイーシアン学習のアプローチを取り上げる。
本稿では,これらの手法がドメイン間の転送に最適な情報を見つける問題にどのように対処するかを論じる。
- 参考スコア(独自算出の注目度): 13.983016833412307
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transfer learning is a burgeoning concept in statistical machine learning
that seeks to improve inference and/or predictive accuracy on a domain of
interest by leveraging data from related domains. While the term "transfer
learning" has garnered much recent interest, its foundational principles have
existed for years under various guises. Prior literature reviews in computer
science and electrical engineering have sought to bring these ideas into focus,
primarily surveying general methodologies and works from these disciplines.
This article highlights Bayesian approaches to transfer learning, which have
received relatively limited attention despite their innate compatibility with
the notion of drawing upon prior knowledge to guide new learning tasks. Our
survey encompasses a wide range of Bayesian transfer learning frameworks
applicable to a variety of practical settings. We discuss how these methods
address the problem of finding the optimal information to transfer between
domains, which is a central question in transfer learning. We illustrate the
utility of Bayesian transfer learning methods via a simulation study where we
compare performance against frequentist competitors.
- Abstract(参考訳): 転送学習は、関連する領域のデータを活用することによって、関心領域における推論および/または予測精度を向上させることを目的とした、統計的機械学習における急成長する概念である。
転校学習」という用語は近年の関心を集めているが、その基本原理は様々な状況下で何年も存在してきた。
コンピュータ科学と電気工学の先行文献レビューは、これらのアイデアに焦点をあてようとしており、主にこれらの分野から一般的な方法論と研究を調査している。
本稿は,新しい学習タスクを指導するための事前知識の描画の概念と本質的互換性があるにもかかわらず,比較的限定的な注目を集めているベイズ的学習アプローチを強調する。
本調査は,様々な実践的設定に適用可能なベイズ転校学習フレームワークの多岐にわたる。
本稿では,これらの手法がドメイン間の伝達に最適な情報を見つける問題にどのように対処するかについて議論する。
本研究では,ベイズ移動学習手法の有用性をシミュレーション実験により示し,その性能を頻繁な競争相手と比較する。
関連論文リスト
- A Recent Survey of Heterogeneous Transfer Learning [15.830786437956144]
異種移動学習は 様々なタスクにおいて 重要な戦略となっている。
データベースとモデルベースの両方のアプローチを網羅した60以上のHTLメソッドの広範なレビューを提供する。
自然言語処理,コンピュータビジョン,マルチモーダル学習,バイオメディシンの応用について検討する。
論文 参考訳(メタデータ) (2023-10-12T16:19:58Z) - Feasibility of Transfer Learning: A Mathematical Framework [4.530876736231948]
それは、必要な数学的概念を確立し、伝達学習のための数学的枠組みを構築することから始まる。
そして、3段階の転送学習手順を最適化問題として特定・定式化し、実現可能性問題の解決を可能にする。
論文 参考訳(メタデータ) (2023-05-22T12:44:38Z) - Visualizing Transferred Knowledge: An Interpretive Model of Unsupervised
Domain Adaptation [70.85686267987744]
教師なしのドメイン適応問題は、ラベル付きソースドメインからラベルなしターゲットドメインに知識を転送することができる。
本稿では、翻訳された知識の謎を視覚的に明らかにする最初の試みとして、教師なしドメイン適応の解釈モデルを提案する。
提案手法は,ベースモデルの予測を直感的に説明し,画像パッチをソースドメインとターゲットドメインの両方で同一のセマンティクスとマッチングすることで伝達知識を公開する。
論文 参考訳(メタデータ) (2023-03-04T03:02:12Z) - Bayesian Learning for Neural Networks: an algorithmic survey [95.42181254494287]
この自己完結型調査は、ベイズ学習ニューラルネットワークの原理とアルゴリズムを読者に紹介する。
アクセシブルで実践的な視点からこのトピックを紹介します。
論文 参考訳(メタデータ) (2022-11-21T21:36:58Z) - On Generalizing Beyond Domains in Cross-Domain Continual Learning [91.56748415975683]
ディープニューラルネットワークは、新しいタスクを学んだ後、これまで学んだ知識の破滅的な忘れ込みに悩まされることが多い。
提案手法は、ドメインシフト中の新しいタスクを精度良く学習することで、DomainNetやOfficeHomeといった挑戦的なデータセットで最大10%向上する。
論文 参考訳(メタデータ) (2022-03-08T09:57:48Z) - A Concise Review of Transfer Learning [1.5771347525430772]
転送学習は、他の関連するソースデータを適用することで、ターゲット学習者のパフォーマンスを高めることを目的としている。
従来の機械学習とデータマイニングのテクニックは、トレーニングとテストのデータは同じ特徴空間と分布から来ていると仮定する。
論文 参考訳(メタデータ) (2021-04-05T20:34:55Z) - A Taxonomy of Similarity Metrics for Markov Decision Processes [62.997667081978825]
近年、伝達学習は強化学習(RL)アルゴリズムをより効率的にすることに成功した。
本稿では,これらの指標を分類し,これまでに提案されている類似性の定義を分析する。
論文 参考訳(メタデータ) (2021-03-08T12:36:42Z) - Unsupervised Transfer Learning for Spatiotemporal Predictive Networks [90.67309545798224]
我々は、教師なし学習されたモデルの動物園から別のネットワークへ知識を伝達する方法を研究する。
私たちのモチベーションは、モデルは異なるソースからの複雑なダイナミクスを理解することが期待されていることです。
提案手法は,時間的予測のための3つのベンチマークで大幅に改善され,重要度が低いベンチマークであっても,ターゲットのメリットが得られた。
論文 参考訳(メタデータ) (2020-09-24T15:40:55Z) - What is being transferred in transfer learning? [51.6991244438545]
事前訓練した重量からトレーニングを行うと、モデルは損失景観の同じ流域に留まることを示す。
事前学習した重みからトレーニングする場合、モデルは損失ランドスケープの同じ流域に留まり、そのようなモデルの異なるインスタンスは特徴空間と類似しており、パラメータ空間は近接している。
論文 参考訳(メタデータ) (2020-08-26T17:23:40Z) - Limits of Transfer Learning [0.0]
我々は、転送する情報の集合を慎重に選択する必要性と、転送される情報とターゲット問題との依存関係の必要性を示す。
これらの結果は、機械学習のためのアルゴリズム検索フレームワークの上に構築され、転送を用いた幅広い学習問題に適用できる。
論文 参考訳(メタデータ) (2020-06-23T01:48:23Z) - Inter- and Intra-domain Knowledge Transfer for Related Tasks in Deep
Character Recognition [2.320417845168326]
ImageNetデータセットでディープニューラルネットワークを事前トレーニングすることは、ディープラーニングモデルをトレーニングするための一般的なプラクティスである。
1つのタスクで事前トレーニングを行い、新しいタスクで再トレーニングするテクニックは、トランスファーラーニング(transfer learning)と呼ばれる。
本稿では,文字認識タスクにおけるDeep Transfer Learningの有効性について分析する。
論文 参考訳(メタデータ) (2020-01-02T14:18:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。