論文の概要: Adversarial Encoder-Multi-Task-Decoder for Multi-Stage Processes
- arxiv url: http://arxiv.org/abs/2003.06899v1
- Date: Sun, 15 Mar 2020 19:30:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-23 08:36:52.741784
- Title: Adversarial Encoder-Multi-Task-Decoder for Multi-Stage Processes
- Title(参考訳): 多段プロセスのための逆エンコーダ・マルチタスクデコーダ
- Authors: Andre Mendes, Julian Togelius, Leandro dos Santos Coelho
- Abstract要約: 多段階プロセスでは、決定は順序付けられた段階の順序で行われる。
本稿では,AAE(Adversarial Autoencoder),MTL(Multi-task Learning),MLSSL(Multi-label semi-supervised Learning)を組み合わせたフレームワークを提案する。
異なるドメインの実際のデータを用いて、我々のアプローチは他の最先端の手法よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 5.933303832684138
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In multi-stage processes, decisions occur in an ordered sequence of stages.
Early stages usually have more observations with general information
(easier/cheaper to collect), while later stages have fewer observations but
more specific data. This situation can be represented by a dual funnel
structure, in which the sample size decreases from one stage to the other while
the information increases. Training classifiers in this scenario is challenging
since information in the early stages may not contain distinct patterns to
learn (underfitting). In contrast, the small sample size in later stages can
cause overfitting. We address both cases by introducing a framework that
combines adversarial autoencoders (AAE), multi-task learning (MTL), and
multi-label semi-supervised learning (MLSSL). We improve the decoder of the AAE
with an MTL component so it can jointly reconstruct the original input and use
feature nets to predict the features for the next stages. We also introduce a
sequence constraint in the output of an MLSSL classifier to guarantee the
sequential pattern in the predictions. Using real-world data from different
domains (selection process, medical diagnosis), we show that our approach
outperforms other state-of-the-art methods.
- Abstract(参考訳): 多段階プロセスでは、決定は順序付けられた段階の順序で行われる。
初期の段階は通常、一般的な情報(より容易に収集できる)で観測されるが、後期段階は観測が少ないが、より具体的なデータを持っている。
この状況は、情報の増大中にサンプルサイズが1段階からもう1段階に減少する二重ファンネル構造で表すことができる。
このシナリオでの訓練用分類器は、初期段階の情報は学習すべき異なるパターン(アンダーフィット)を含んでいないため、難しい。
対照的に、後段の小さなサンプルサイズはオーバーフィッティングを引き起こすことがある。
本稿では,AAE(Adversarial Autoencoder),MTL(Multi-task Learning),MLSSL(Multi-label semi-supervised learning)を組み合わせたフレームワークを導入することにより,両事例に対処する。
我々は,AME のデコーダを MTL コンポーネントで改良し,元の入力と特徴ネットを共同で再構築し,次の段階の機能を予測する。
また、予測におけるシーケンスパターンを保証するために、MLSSL分類器の出力にシーケンス制約を導入する。
異なる領域の実際のデータ(選択プロセス、診断)を用いて、我々のアプローチは他の最先端手法よりも優れていることを示す。
関連論文リスト
- On Inter-dataset Code Duplication and Data Leakage in Large Language Models [4.148857672591562]
本稿では,データセット間の重複現象とその大規模言語モデル(LLM)評価への影響について検討する。
この結果から,複数のSEタスクにまたがるLCMの評価は,データ間重複現象に起因する可能性が示唆された。
オープンソースモデルがデータセット間の重複に影響される可能性があることを示す。
論文 参考訳(メタデータ) (2024-01-15T19:46:40Z) - Unsupervised Continual Anomaly Detection with Contrastively-learned
Prompt [80.43623986759691]
UCADと呼ばれる新しい非教師付き連続異常検出フレームワークを提案する。
このフレームワークは、対照的に学習したプロンプトを通じて、UDAに継続的な学習能力を持たせる。
我々は総合的な実験を行い、教師なし連続異常検出とセグメンテーションのベンチマークを設定した。
論文 参考訳(メタデータ) (2024-01-02T03:37:11Z) - Instruction Position Matters in Sequence Generation with Large Language
Models [67.87516654892343]
大規模言語モデル(LLM)は、翻訳や要約といった条件付きシーケンス生成タスクを実行することができる。
入力文の後にタスク命令の位置をシフトさせることにより,LLMの指示追従能力を向上させることを提案する。
論文 参考訳(メタデータ) (2023-08-23T12:36:57Z) - Iterative Forward Tuning Boosts In-Context Learning in Language Models [88.25013390669845]
本研究では,大規模言語モデル(LLM)における文脈内学習を促進する新しい2段階フレームワークを提案する。
具体的には、当社のフレームワークでは、ICLプロセスをDeep-ThinkingとTest Stageの2つの別々のステージに分類しています。
ディープシンキング段階にはユニークな注意機構、すなわち反復的な注意強化機構が組み込まれており、複数の情報の蓄積を可能にしている。
論文 参考訳(メタデータ) (2023-05-22T13:18:17Z) - Mutual Exclusivity Training and Primitive Augmentation to Induce
Compositionality [84.94877848357896]
最近のデータセットは、標準的なシーケンス・ツー・シーケンスモデルにおける体系的な一般化能力の欠如を露呈している。
本稿では,セq2seqモデルの振る舞いを分析し,相互排他バイアスの欠如と全例を記憶する傾向の2つの要因を同定する。
広範に使用されている2つの構成性データセット上で、標準的なシーケンス・ツー・シーケンスモデルを用いて、経験的改善を示す。
論文 参考訳(メタデータ) (2022-11-28T17:36:41Z) - Bi-Granularity Contrastive Learning for Post-Training in Few-Shot Scene [10.822477939237459]
トークンレベルとシーケンスレベルの両方のコントラスト学習を統合するために,ポストトレーニングのためのコントラストマスク言語モデリング(CMLM)を提案する。
CMLMは、データ拡張を必要とせずに、数ショット設定で、最近のいくつかのポストトレーニングメソッドを超越している。
論文 参考訳(メタデータ) (2021-06-04T08:17:48Z) - Contrastive Prototype Learning with Augmented Embeddings for Few-Shot
Learning [58.2091760793799]
拡張埋め込み(CPLAE)モデルを用いた新しいコントラスト型プロトタイプ学習を提案する。
クラスプロトタイプをアンカーとして、CPLは、同じクラスのクエリサンプルを、異なるクラスのサンプルを、さらに遠くに引き出すことを目的としている。
いくつかのベンチマークによる大規模な実験により,提案したCPLAEが新たな最先端を実現することが示された。
論文 参考訳(メタデータ) (2021-01-23T13:22:44Z) - Multi-Stage Transfer Learning with an Application to Selection Process [5.933303832684138]
多段階プロセスでは、決定は順序付けられた段階の順序で行われる。
本研究では,早期に訓練された単純な分類器からの知識を利用するテキスト・マルチ・スタゲ・トランスファー・ラーニング(MSGTL)手法を提案する。
簡単な確率写像を用いて,知識の保存と微調整のトレードオフを制御可能であることを示す。
論文 参考訳(メタデータ) (2020-06-01T21:27:04Z) - Conditional Mutual information-based Contrastive Loss for Financial Time
Series Forecasting [12.0855096102517]
金融時系列予測のための表現学習フレームワークを提案する。
本稿では、まず時系列データからコンパクトな表現を学習し、次に学習した表現を用いて、時系列の動きを予測するためのより単純なモデルを訓練する。
論文 参考訳(メタデータ) (2020-02-18T15:24:33Z) - Few-Shot Learning as Domain Adaptation: Algorithm and Analysis [120.75020271706978]
わずかながらの学習は、目に見えないクラスを認識するために、目に見えないクラスから学んだ事前知識を使用する。
このクラス差による分布シフトは、ドメインシフトの特別なケースとみなすことができる。
メタラーニングフレームワークにおいて、そのようなドメインシフト問題に明示的に対処するために、注意を向けたプロトタイプドメイン適応ネットワーク(DAPNA)を提案する。
論文 参考訳(メタデータ) (2020-02-06T01:04:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。