論文の概要: Generative Fuzzy System for Sequence Generation
- arxiv url: http://arxiv.org/abs/2411.13867v1
- Date: Thu, 21 Nov 2024 06:03:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-22 15:19:30.469114
- Title: Generative Fuzzy System for Sequence Generation
- Title(参考訳): シーケンス生成のための生成ファジィシステム
- Authors: Hailong Yang, Zhaohong Deng, Wei Zhang, Zhuangzhuang Zhao, Guanjin Wang, Kup-sze Choi,
- Abstract要約: 本稿では,データと知識駆動型メカニズムを組み合わせたファジィ・システムを提案する。
我々はFuzzyS2Sと呼ばれるシーケンス生成のためのエンドツーエンドのGenFSモデルを提案する。
12のデータセットに対して,3つの異なる生成タスクのカテゴリを網羅した一連の実験を行った。
- 参考スコア(独自算出の注目度): 16.20988290308979
- License:
- Abstract: Generative Models (GMs), particularly Large Language Models (LLMs), have garnered significant attention in machine learning and artificial intelligence for their ability to generate new data by learning the statistical properties of training data and creating data that resemble the original. This capability offers a wide range of applications across various domains. However, the complex structures and numerous model parameters of GMs make the input-output processes opaque, complicating the understanding and control of outputs. Moreover, the purely data-driven learning mechanism limits GM's ability to acquire broader knowledge. There remains substantial potential for enhancing the robustness and generalization capabilities of GMs. In this work, we introduce the fuzzy system, a classical modeling method that combines data and knowledge-driven mechanisms, to generative tasks. We propose a novel Generative Fuzzy System framework, named GenFS, which integrates the deep learning capabilities of GM with the interpretability and dual-driven mechanisms of fuzzy systems. Specifically, we propose an end-to-end GenFS-based model for sequence generation, called FuzzyS2S. A series of experimental studies were conducted on 12 datasets, covering three distinct categories of generative tasks: machine translation, code generation, and summary generation. The results demonstrate that FuzzyS2S outperforms the Transformer in terms of accuracy and fluency. Furthermore, it exhibits better performance on some datasets compared to state-of-the-art models T5 and CodeT5.
- Abstract(参考訳): 生成モデル(GM)、特にLarge Language Models(LLM)は、トレーニングデータの統計的特性を学習し、元のものと類似したデータを生成することによって、新しいデータを生成する能力に対して、機械学習と人工知能に大きな注目を集めている。
この機能は、様々なドメインにまたがる幅広いアプリケーションを提供します。
しかし、GMの複雑な構造と多くのモデルパラメータは、出力の理解と制御を複雑にし、入力出力プロセスが不透明にする。
さらに、純粋にデータ駆動学習機構は、GMのより広範な知識獲得能力を制限する。
GMのロバスト性や一般化能力を高める大きな可能性を秘めている。
本研究では,データと知識駆動機構を組み合わせた古典的モデリング手法であるファジィシステムを生成タスクに適用する。
我々は、GMのディープラーニング能力とファジィシステムの解釈可能性と二重駆動機構を統合した、GenFSという新しい生成ファジィシステムフレームワークを提案する。
具体的には、FuzzyS2Sと呼ばれるシーケンス生成のためのエンドツーエンドのGenFSモデルを提案する。
12のデータセットを用いて、機械翻訳、コード生成、要約生成の3つの異なるカテゴリを網羅した一連の実験を行った。
以上の結果から,FuzzyS2Sはトランスフォーマーの精度と流速で優れていた。
さらに、最先端のモデルであるT5やCodeT5と比較して、いくつかのデータセットのパフォーマンスも向上している。
関連論文リスト
- G-NeuroDAVIS: A Neural Network model for generalized embedding, data visualization and sample generation [0.0]
G-NeuroDAVISと呼ばれる新しい生成モデルは、一般化された埋め込みを通して高次元データを視覚化することができる。
G-NeuroDAVISは教師なしと教師なしの両方の設定で訓練できる。
論文 参考訳(メタデータ) (2024-10-18T07:14:08Z) - Knowledge-Driven Feature Selection and Engineering for Genotype Data with Large Language Models [35.084222907099644]
FREEFORM, Free-flow Reasoning, Ensembling for Enhanced Feature Output and Robust Modeling。
https://github.com/PennShenLab/FREEFORM.com/FreeFORMはGitHubのオープンソースフレームワークとして利用可能だ。
論文 参考訳(メタデータ) (2024-10-02T17:53:08Z) - Recommendation with Generative Models [35.029116616023586]
生成モデルは、統計分布から学習し、サンプリングすることで、データの新しいインスタンスを作成することができるAIモデルである。
これらのモデルは、画像生成、テキスト合成、音楽合成など、様々な領域に応用されている。
レコメンデーションシステムでは、Gen-RecSysと呼ばれる生成モデルは、レコメンデーションの正確性と多様性を改善する。
論文 参考訳(メタデータ) (2024-09-18T18:29:15Z) - UniGen: A Unified Framework for Textual Dataset Generation Using Large Language Models [88.16197692794707]
UniGenは、多様で正確で高度に制御可能なデータセットを作成するように設計された包括的なフレームワークである。
データ多様性を強化するため、UniGenは属性誘導生成モジュールとグループチェック機能を備えている。
大規模な実験は、UniGenによって生成されたデータの優れた品質を示す。
論文 参考訳(メタデータ) (2024-06-27T07:56:44Z) - DiverGen: Improving Instance Segmentation by Learning Wider Data Distribution with More Diverse Generative Data [48.31817189858086]
生成データは、モデルが学習できるデータ分布を拡大し、過剰適合を軽減できると主張している。
DiverGenは強力なX-Pasteよりも優れており、すべてのカテゴリで+1.1ボックスAPと+1.1マスクAPを達成でき、まれなカテゴリでは+1.9ボックスAPと+2.5マスクAPを達成できる。
論文 参考訳(メタデータ) (2024-05-16T15:30:18Z) - Diffusion-Based Neural Network Weights Generation [80.89706112736353]
D2NWGは拡散に基づくニューラルネットワーク重み生成技術であり、転送学習のために高性能な重みを効率よく生成する。
本稿では,ニューラルネットワーク重み生成のための遅延拡散パラダイムを再放送するために,生成的ハイパー表現学習を拡張した。
我々のアプローチは大規模言語モデル(LLM)のような大規模アーキテクチャにスケーラブルであり、現在のパラメータ生成技術の限界を克服しています。
論文 参考訳(メタデータ) (2024-02-28T08:34:23Z) - 3DG: A Framework for Using Generative AI for Handling Sparse Learner
Performance Data From Intelligent Tutoring Systems [22.70004627901319]
本稿では, テンソル因子化と高次生成モデルを組み合わせた新しいアプローチである3DGフレームワーク(デンシフィケーション・アンド・ジェネレーション用3次元テンソル)を紹介する。
このフレームワークは、学習性能のスケーラブルでパーソナライズされたシミュレーションを効果的に生成した。
論文 参考訳(メタデータ) (2024-01-29T22:34:01Z) - Genixer: Empowering Multimodal Large Language Models as a Powerful Data Generator [63.762209407570715]
Genixerは4つの重要なステップからなる包括的なデータ生成パイプラインである。
LLaVA1.5でトレーニングされた合成VQAライクなデータセットは、12のマルチモーダルベンチマークのうち10のパフォーマンスを向上させる。
タスク固有のデータセットで訓練されたMLLMは、複雑な命令チューニングデータを生成する際に、GPT-4Vを超えることができる。
論文 参考訳(メタデータ) (2023-12-11T09:44:41Z) - Quantum Generative Modeling of Sequential Data with Trainable Token
Embedding [0.0]
ボルンマシンとして知られる量子インスパイアされた生成モデルは、古典的および量子的データの学習において大きな進歩を見せている。
本稿では,MPSを同時に使用可能なトレーニング可能な量子計測演算子への埋め込み法を一般化する。
私たちの研究は、トレーニング可能な埋め込みと組み合わせることで、Bornマシンはより良いパフォーマンスを示し、データセットからより深い相関関係を学習できることを示した。
論文 参考訳(メタデータ) (2023-11-08T22:56:37Z) - TSGM: A Flexible Framework for Generative Modeling of Synthetic Time Series [61.436361263605114]
時系列データは、研究者と産業組織間のデータの共有を妨げるため、しばしば不足または非常に敏感である。
本稿では,合成時系列の生成モデリングのためのオープンソースフレームワークである時系列生成モデリング(TSGM)を紹介する。
論文 参考訳(メタデータ) (2023-05-19T10:11:21Z) - GenNI: Human-AI Collaboration for Data-Backed Text Generation [102.08127062293111]
Table2Textシステムは、機械学習を利用した構造化データに基づいてテキスト出力を生成する。
GenNI (Generation Negotiation Interface) は、対話型ビジュアルシステムである。
論文 参考訳(メタデータ) (2021-10-19T18:07:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。