論文の概要: Encoder-Decoder Generative Adversarial Nets for Suffix Generation and
Remaining Time Prediction of Business Process Models
- arxiv url: http://arxiv.org/abs/2007.16030v2
- Date: Mon, 19 Oct 2020 09:49:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-05 13:30:30.871943
- Title: Encoder-Decoder Generative Adversarial Nets for Suffix Generation and
Remaining Time Prediction of Business Process Models
- Title(参考訳): suffix生成のためのエンコーダ・デコーダ生成逆ネットとビジネスプロセスモデルの残時間予測
- Authors: Farbod Taymouri, Marcello La Rosa
- Abstract要約: 本稿では,GAN(Generative Adversarial Networks)に基づくエンコーダデコーダアーキテクチャを提案する。
GANは画像などの識別可能なデータでうまく機能するが、接尾辞は分類項目の列である。
我々はGumbel-Softmax分布を用いて微分可能な連続近似を得る。
- 参考スコア(独自算出の注目度): 0.03807314298073299
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes an encoder-decoder architecture grounded on Generative
Adversarial Networks (GANs), that generates a sequence of activities and their
timestamps in an end-to-end way. GANs work well with differentiable data such
as images. However, a suffix is a sequence of categorical items. To this end,
we use the Gumbel-Softmax distribution to get a differentiable continuous
approximation. The training works by putting one neural network against the
other in a two-player game (hence the "adversarial" nature), which leads to
generating suffixes close to the ground truth. From the experimental evaluation
it emerges that the approach is superior to the baselines in terms of the
accuracy of the predicted suffixes and corresponding remaining times, despite
using a naive feature encoding and only engineering features based on control
flow and events completion time.
- Abstract(参考訳): 本稿では,gans(generative adversarial network)を基盤としたエンコーダ・デコーダアーキテクチャを提案する。
GANは画像などの識別可能なデータでうまく機能する。
しかし、接尾辞は分類項目の列である。
この目的のために、Gumbel-Softmax分布を用いて微分可能な連続近似を得る。
このトレーニングは、あるニューラルネットワークを2人のプレイヤーのゲーム(つまり「敵対的な」性質)で相手と対戦させることで、接地真実に近い接尾辞を生成する。
実験評価から,予測された接尾辞の精度,およびそれに対応する残時間に関して,制御フローとイベント完了時間に基づく工学的特徴のみを用いていたにもかかわらず,本手法がベースラインよりも優れていることが判明した。
関連論文リスト
- Fourier Head: Helping Large Language Models Learn Complex Probability Distributions [7.074506869260538]
フーリエ級数を用いて構築されたニューラルネットワーク層を導入し,出力がより連続的な構造であれば,任意の線形層に置換することができる。
我々は,大規模な意思決定や時系列予測タスクと同様に,合成データセットの広範な分析を行う。
提案したフーリエヘッドは,基礎となるデータ分布が自然な連続構造を持つシナリオにおいて有効である。
論文 参考訳(メタデータ) (2024-10-29T17:27:58Z) - Diffusion Forcing: Next-token Prediction Meets Full-Sequence Diffusion [61.03681839276652]
拡散強制(Diffusion Forcing)は、拡散モデルをトレーニングし、トークンの集合に独立した音レベルを付与する、新たなトレーニングパラダイムである。
因果的次トーケン予測モデルを訓練して1つまたは複数の未来のトークンを生成することで、シーケンス生成モデルに拡散強制を適用する。
論文 参考訳(メタデータ) (2024-07-01T15:43:25Z) - Reinforced Decoder: Towards Training Recurrent Neural Networks for Time Series Forecasting [1.5213268724320657]
繰り返しニューラルネットワークに基づくシーケンス・ツー・シーケンスモデルは、マルチステップの時系列予測に広く応用されている。
これらのモデルは通常、デコーダ入力として以前の予測または実際の観測値を使用して訓練されたデコーダを含む。
本研究は、代替デコーダ入力を生成する補助モデルを導入する強化デコーダと呼ばれる新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2024-06-14T00:24:29Z) - DiffCut: Catalyzing Zero-Shot Semantic Segmentation with Diffusion Features and Recursive Normalized Cut [62.63481844384229]
ファンデーションモデルは、言語、ビジョン、マルチモーダルタスクなど、さまざまな領域にまたがる強力なツールとして登場した。
本稿では,拡散UNetエンコーダを基礎ビジョンエンコーダとして使用し,教師なしゼロショットセグメンテーション手法であるDiffCutを紹介する。
我々の研究は、拡散UNetエンコーダに埋め込まれた極めて正確なセマンティック知識を強調し、下流タスクの基盤ビジョンエンコーダとして機能する。
論文 参考訳(メタデータ) (2024-06-05T01:32:31Z) - A Stable, Fast, and Fully Automatic Learning Algorithm for Predictive
Coding Networks [65.34977803841007]
予測符号化ネットワークは、ベイズ統計学と神経科学の両方にルーツを持つ神経科学にインスパイアされたモデルである。
シナプス重みに対する更新規則の時間的スケジュールを変更するだけで、元の規則よりもずっと効率的で安定したアルゴリズムが得られることを示す。
論文 参考訳(メタデータ) (2022-11-16T00:11:04Z) - ED2LM: Encoder-Decoder to Language Model for Faster Document Re-ranking
Inference [70.36083572306839]
本稿では,再ランク付けのための新しいトレーニングおよび推論パラダイムを提案する。
文書形式を用いて事前訓練したエンコーダ・デコーダモデルを精査し,クエリ生成を行う。
このエンコーダ-デコーダアーキテクチャは,推論中にデコーダのみの言語モデルに分解可能であることを示す。
論文 参考訳(メタデータ) (2022-04-25T06:26:29Z) - Self-Conditioned Generative Adversarial Networks for Image Editing [61.50205580051405]
Generative Adversarial Networks (GAN) はバイアスの影響を受けやすい。
我々は、このバイアスが公平性だけでなく、分布のコアから逸脱する際の潜在トラバース編集手法の崩壊に重要な役割を果たしていると論じる。
論文 参考訳(メタデータ) (2022-02-08T18:08:24Z) - Alleviate Exposure Bias in Sequence Prediction \\ with Recurrent Neural
Networks [47.52214243454995]
繰り返しニューラルネットワーク(RNN)を訓練する一般的な戦略は、各ステップで入力として地上の真実を取ることです。
本稿では,RNNの長期的依存関係をよりよく把握するための,完全微分可能なトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-03-22T06:15:22Z) - Recent Developments Combining Ensemble Smoother and Deep Generative
Networks for Facies History Matching [58.720142291102135]
本研究は、ファシズムモデルのための連続パラメータ化を構築するためのオートエンコーダネットワークの利用に焦点を当てる。
本稿では,VAE,GAN,Wasserstein GAN,変分自動符号化GAN,サイクルGANの主成分分析(PCA),転送スタイルネットワークのPCA,スタイル損失のVAEの7種類の定式化をベンチマークする。
論文 参考訳(メタデータ) (2020-05-08T21:32:42Z) - A game-theoretic approach for Generative Adversarial Networks [2.995087247817663]
GAN(Generative Adversarial Network)は、生成モデルの一種で、正確なサンプルを作成することで知られている。
彼らの実装の主なボトルネックは、ニューラルネットワークのトレーニングが非常に難しいことだ。
本稿では,GANに対する緩和されたフォワードバックワードアルゴリズムを提案する。
ゲームの擬階写像が単調であるとき、正確な解やその近傍に収束することが証明される。
論文 参考訳(メタデータ) (2020-03-30T17:14:41Z) - PushNet: Efficient and Adaptive Neural Message Passing [1.9121961872220468]
メッセージパッシングニューラルネットワークは、最近、グラフ上での表現学習に対する最先端のアプローチへと進化した。
既存のメソッドは、複数のラウンドですべてのエッジに沿って同期メッセージパッシングを実行する。
我々は、収束するまで最も関連性の高いエッジに沿ってのみ情報をプッシュする、新しい非同期メッセージパッシングアプローチについて検討する。
論文 参考訳(メタデータ) (2020-03-04T18:15:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。