論文の概要: Between-Domain Instance Transition Via the Process of Gibbs Sampling in
RBM
- arxiv url: http://arxiv.org/abs/2006.14538v1
- Date: Thu, 25 Jun 2020 16:36:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 03:11:36.455859
- Title: Between-Domain Instance Transition Via the Process of Gibbs Sampling in
RBM
- Title(参考訳): rbmにおけるgibbsサンプリングプロセスによるドメイン間インスタンス遷移
- Authors: Hossein Shahabadi Farahani, Alireza Fatehi, Mahdi Aliyari Shoorehdeli
- Abstract要約: ギブズサンプリングに基づくトランスファーラーニング(TL)の新しいアイデアを提案する。
RBMはエネルギーベースのモデルであり、データ分散を表現するために訓練されるのに非常に有益である。
その結果,本手法は目標分類の精度をかなりの割合で向上させることができた。
- 参考スコア(独自算出の注目度): 0.6445605125467573
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we present a new idea for Transfer Learning (TL) based on
Gibbs Sampling. Gibbs sampling is an algorithm in which instances are likely to
transfer to a new state with a higher possibility with respect to a probability
distribution. We find that such an algorithm can be employed to transfer
instances between domains. Restricted Boltzmann Machine (RBM) is an energy
based model that is very feasible for being trained to represent a data
distribution and also for performing Gibbs sampling. We used RBM to capture
data distribution of the source domain and use it in order to cast target
instances into new data with a distribution similar to the distribution of
source data. Using datasets that are commonly used for evaluation of TL
methods, we show that our method can successfully enhance target classification
by a considerable ratio. Additionally, the proposed method has the advantage
over common DA methods that it needs no target data during the process of
training of models.
- Abstract(参考訳): 本稿では,gibbsサンプリングに基づくトランスファー学習(tl)の新たなアイデアを提案する。
ギブズサンプリング(ギブズサンプリング)は、確率分布に関して高い確率でインスタンスが新しい状態に遷移する確率の高いアルゴリズムである。
このようなアルゴリズムは、ドメイン間のインスタンスの転送に利用できる。
制限ボルツマン機械(英語版)(rbm)はエネルギーベースのモデルであり、データ分布を表す訓練やギブスサンプリングを行うために非常に実現可能である。
我々はRBMを用いて、ソースドメインのデータ分布をキャプチャし、ターゲットインスタンスをソースデータの分布に似た分布を持つ新しいデータにキャストする。
TL手法の評価によく用いられるデータセットを用いて,本手法は目標分類をかなりの比率で向上させることができることを示す。
さらに,提案手法は,モデル学習過程において対象データを必要としない,一般的なDA手法よりも有利である。
関連論文リスト
- Improving Distribution Alignment with Diversity-based Sampling [0.0]
ドメインシフトは機械学習においてユビキタスであり、実際のデータにデプロイすると、モデルのパフォーマンスが大幅に低下する可能性がある。
本稿では,各サンプル小バッチの多様性を誘導することにより,これらの推定値を改善することを提案する。
同時にデータのバランスを保ち、勾配のばらつきを低減し、それによってモデルの一般化能力を高める。
論文 参考訳(メタデータ) (2024-10-05T17:26:03Z) - Probabilistic Matching of Real and Generated Data Statistics in Generative Adversarial Networks [0.6906005491572401]
本稿では,あるデータ統計量の分布が実データの分布と一致することを確実にする手法を提案する。
提案手法を合成データセットと実世界のデータセットで評価し,提案手法の性能向上を実証した。
論文 参考訳(メタデータ) (2023-06-19T14:03:27Z) - Distribution Shift Inversion for Out-of-Distribution Prediction [57.22301285120695]
本稿では,OoD(Out-of-Distribution)予測のためのポータブル分布シフト変換アルゴリズムを提案する。
提案手法は,OoDアルゴリズムを広範囲に接続した場合に,一般的な性能向上をもたらすことを示す。
論文 参考訳(メタデータ) (2023-06-14T08:00:49Z) - Source-Free Domain Adaptation via Distribution Estimation [106.48277721860036]
ドメイン適応は、ラベル付きソースドメインから学んだ知識を、データ分散が異なるラベル付きターゲットドメインに転送することを目的としています。
近年,ソースフリードメイン適応 (Source-Free Domain Adaptation, SFDA) が注目されている。
本研究では,SFDA-DEと呼ばれる新しいフレームワークを提案し,ソース分布推定によるSFDAタスクに対処する。
論文 参考訳(メタデータ) (2022-04-24T12:22:19Z) - Sampling from Arbitrary Functions via PSD Models [55.41644538483948]
まず確率分布をモデル化し,そのモデルからサンプリングする。
これらのモデルでは, 少数の評価値を用いて, 高精度に多数の密度を近似することが可能であることが示され, それらのモデルから効果的にサンプルする簡単なアルゴリズムが提示される。
論文 参考訳(メタデータ) (2021-10-20T12:25:22Z) - MaGNET: Uniform Sampling from Deep Generative Network Manifolds Without
Retraining [9.294580808320534]
我々は、DGNが訓練された場合、学習多様体上に均一に分布するサンプルを生成する、微分幾何学に基づくサンプリング器、MaGNETを開発した。
我々は,この手法がトレーニングセットの分布によらず,多様体上の一様分布を生成することを理論的かつ実証的に証明する。
論文 参考訳(メタデータ) (2021-10-15T11:12:56Z) - KL Guided Domain Adaptation [88.19298405363452]
ドメイン適応は重要な問題であり、現実世界のアプリケーションにしばしば必要である。
ドメイン適応文学における一般的なアプローチは、ソースとターゲットドメインに同じ分布を持つ入力の表現を学ぶことである。
確率的表現ネットワークにより、KL項はミニバッチサンプルにより効率的に推定できることを示す。
論文 参考訳(メタデータ) (2021-06-14T22:24:23Z) - Gradual Domain Adaptation in the Wild:When Intermediate Distributions
are Absent [32.906658998929394]
目標が目標分布に向かってモデルをシフトさせる場合、ドメイン適応の問題に焦点をあてる。
本稿では,ソース領域とターゲット領域の例を補間することで,中間分布から仮想サンプルを作成するGIFTを提案する。
論文 参考訳(メタデータ) (2021-06-10T22:47:06Z) - WILDS: A Benchmark of in-the-Wild Distribution Shifts [157.53410583509924]
分散シフトは、ワイルドにデプロイされた機械学習システムの精度を実質的に低下させることができる。
分散シフトの多様な範囲を反映した8つのベンチマークデータセットのキュレーションコレクションであるWILDSを紹介します。
本研究は, 標準訓練の結果, 分布性能よりも, 分布域外性能が有意に低下することを示す。
論文 参考訳(メタデータ) (2020-12-14T11:14:56Z) - Improving Generative Adversarial Networks with Local Coordinate Coding [150.24880482480455]
GAN(Generative Adversarial Network)は、事前定義された事前分布から現実的なデータを生成することに成功している。
実際には、意味情報はデータから学んだ潜在的な分布によって表現される。
ローカル座標符号化(LCC)を用いたLCCGANモデルを提案する。
論文 参考訳(メタデータ) (2020-07-28T09:17:50Z) - Generalized Zero and Few-Shot Transfer for Facial Forgery Detection [3.8073142980733]
フォージェリ検出の文脈でゼロおよび少数ショット転送の問題に対処する新しいトランスファー学習手法を提案する。
従来の分類や最先端のドメイン適応/ファウショット学習手法と比較して,この学習戦略は驚くほど効果的である。
論文 参考訳(メタデータ) (2020-06-21T18:10:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。