論文の概要: Langevin Cooling for Domain Translation
- arxiv url: http://arxiv.org/abs/2008.13723v1
- Date: Mon, 31 Aug 2020 16:43:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-23 06:43:01.579983
- Title: Langevin Cooling for Domain Translation
- Title(参考訳): ドメイン翻訳のためのLangevin冷却
- Authors: Vignesh Srinivasan, Klaus-Robert M\"uller, Wojciech Samek, Shinichi
Nakajima
- Abstract要約: ドメイン翻訳は2つのドメイン間の対応を見つけるタスクである。
いくつかのディープニューラルネットワーク(DNN)モデル、例えばCycleGANや言語間言語モデルは、教師なし設定の下でこのタスクで顕著な成功を収めている。
本稿では,Langevin Cooling (L-Cool) と呼ばれる私たちの戦略が,画像翻訳や言語翻訳タスクにおける最先端の手法を強化していることを示す。
- 参考スコア(独自算出の注目度): 15.838256272508358
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Domain translation is the task of finding correspondence between two domains.
Several Deep Neural Network (DNN) models, e.g., CycleGAN and cross-lingual
language models, have shown remarkable successes on this task under the
unsupervised setting---the mappings between the domains are learned from two
independent sets of training data in both domains (without paired samples).
However, those methods typically do not perform well on a significant
proportion of test samples. In this paper, we hypothesize that many of such
unsuccessful samples lie at the fringe---relatively low-density areas---of data
distribution, where the DNN was not trained very well, and propose to perform
Langevin dynamics to bring such fringe samples towards high density areas. We
demonstrate qualitatively and quantitatively that our strategy, called Langevin
Cooling (L-Cool), enhances state-of-the-art methods in image translation and
language translation tasks.
- Abstract(参考訳): ドメイン翻訳は2つのドメイン間の対応を見つけるタスクである。
Several Deep Neural Network (DNN) models, e.g., CycleGAN and cross-lingual language models, have shown remarkable successes on this task under the unsupervised setting---the mappings between the domains are learned from two independent sets of training data in both domains (without paired samples). However, those methods typically do not perform well on a significant proportion of test samples. In this paper, we hypothesize that many of such unsuccessful samples lie at the fringe---relatively low-density areas---of data distribution, where the DNN was not trained very well, and propose to perform Langevin dynamics to bring such fringe samples towards high density areas.
我々は,Langevin Cooling (L-Cool)と呼ばれる我々の戦略が,画像翻訳や言語翻訳タスクにおける最先端の手法を強化することを質的かつ定量的に示す。
関連論文リスト
- Upsample or Upweight? Balanced Training on Heavily Imbalanced Datasets [31.5733738608772]
ドメイン間のデータの可用性は、しばしば長いテール分布に従う。
この不均衡は、すべてのドメインで一様に言語モデルをトレーニングする際の課題を生じさせる。
トレーニング中の温度サンプリングを減らし,低リソース言語に過度に適合することなく収束を加速する手法であるCooldownを提案する。
論文 参考訳(メタデータ) (2024-10-06T18:29:46Z) - EntProp: High Entropy Propagation for Improving Accuracy and Robustness [1.9580473532948401]
ディープニューラルネットワーク(DNN)は、トレーニング中のものと異なる分布外領域に一般化するのに苦労する。
実践的な応用においては、DNNが標準精度と配布外領域に対する堅牢性の両方を持つことが重要である。
エントロピーを増大させ,サンプルを分布内領域からさらに遠ざける2つの手法,すなわちデータ拡張と自由敵対的トレーニングを導入する。
論文 参考訳(メタデータ) (2024-05-29T09:36:20Z) - Discrete Diffusion Modeling by Estimating the Ratios of the Data Distribution [67.9215891673174]
離散空間に対するスコアマッチングを自然に拡張する新たな損失として,スコアエントロピーを提案する。
標準言語モデリングタスク上で,Score Entropy Discrete Diffusionモデルをテストする。
論文 参考訳(メタデータ) (2023-10-25T17:59:12Z) - Adversarial Capsule Networks for Romanian Satire Detection and Sentiment
Analysis [0.13048920509133807]
サファイア検出と感情分析は、自然言語処理タスクを集中的に探求している。
研究資源が少ない言語では、文字レベルの逆数過程に基づく人工的な例を生成する方法がある。
本研究では, よく知られたNLPモデルの改良を行い, 対角訓練とカプセルネットワークについて検討する。
提案したフレームワークは2つのタスクの既存の手法より優れており、99.08%の精度が達成されている。
論文 参考訳(メタデータ) (2023-06-13T15:23:44Z) - QAGAN: Adversarial Approach To Learning Domain Invariant Language
Features [0.76146285961466]
ドメイン不変の特徴を学習するための敵対的学習手法について検討する。
EMスコアが15.2%改善され、ドメイン外の検証データセットでF1スコアが5.6%向上しました。
論文 参考訳(メタデータ) (2022-06-24T17:42:18Z) - Bridging the Data Gap between Training and Inference for Unsupervised
Neural Machine Translation [49.916963624249355]
UNMTモデルは、翻訳されたソースと推論中の自然言語で擬似並列データに基づいて訓練される。
トレーニングと推論のソース差はUNMTモデルの翻訳性能を妨げている。
本稿では、擬似並列データ自然言語を同時に用いたオンライン自己学習手法を提案する。
論文 参考訳(メタデータ) (2022-03-16T04:50:27Z) - Non-Parametric Unsupervised Domain Adaptation for Neural Machine
Translation [61.27321597981737]
$k$NN-MTは、トレーニング済みニューラルネットワーク翻訳(NMT)モデルとドメイン固有のトークンレベルである$k$-nearest-neighbor検索を直接組み込むという有望な能力を示している。
対象言語におけるドメイン内単言語文を直接使用して,$k$-nearest-neighbor検索に有効なデータストアを構築する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-14T11:50:01Z) - Coarse to Fine: Domain Adaptive Crowd Counting via Adversarial Scoring
Network [58.05473757538834]
本稿では,ドメイン間のギャップを粗い粒度から細かな粒度に埋める新しい逆スコアリングネットワーク (ASNet) を提案する。
3組のマイグレーション実験により,提案手法が最先端のカウント性能を実現することを示す。
論文 参考訳(メタデータ) (2021-07-27T14:47:24Z) - Evaluating Document Coherence Modelling [37.287725949616934]
英語文侵入検出タスクにおけるプリトレーニング済みLMの広い範囲の性能を検討する。
実験の結果,事前学習したLMはドメイン内評価において顕著に機能するが,クロスドメイン設定の大幅な低下を経験することがわかった。
論文 参考訳(メタデータ) (2021-03-18T10:05:06Z) - Unsupervised Image-to-Image Translation via Pre-trained StyleGAN2
Network [73.5062435623908]
本稿では,一連のモデル変換によって対象領域に新たなモデルを生成する新しいI2I翻訳手法を提案する。
潜在ベクトルを生成されたモデルに入力することで、ソースドメインとターゲットドメインの間でI2I翻訳を行うことができる。
論文 参考訳(メタデータ) (2020-10-12T13:51:40Z) - $n$-Reference Transfer Learning for Saliency Prediction [73.17061116358036]
本稿では,サリエンシ予測のための数発のトランスファー学習パラダイムを提案する。
提案するフレームワークは勾配ベースでモデルに依存しない。
その結果,提案フレームワークは大幅な性能向上を実現していることがわかった。
論文 参考訳(メタデータ) (2020-07-09T23:20:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。