論文の概要: Efficient Learning of Fuzzy Logic Systems for Large-Scale Data Using Deep Learning
- arxiv url: http://arxiv.org/abs/2404.12792v1
- Date: Fri, 19 Apr 2024 11:09:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-22 15:16:46.786321
- Title: Efficient Learning of Fuzzy Logic Systems for Large-Scale Data Using Deep Learning
- Title(参考訳): ディープラーニングを用いた大規模データのためのファジィ論理系の効率的な学習
- Authors: Ata Koklu, Yusuf Guven, Tufan Kumbasar,
- Abstract要約: 本稿では,FLSの学習問題に着目し,深層学習(DL)領域に埋め込まれた計算効率の高い学習手法を提案する。
提案手法は、FLSの効率的な実装を活用することにより、FLSの学習課題に対処し、トレーニング時間を最小化する。
ベンチマークデータセット上で、FLSのためのDLフレームワークの効率について説明する。
- 参考スコア(独自算出の注目度): 2.526146573337397
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Type-1 and Interval Type-2 (IT2) Fuzzy Logic Systems (FLS) excel in handling uncertainty alongside their parsimonious rule-based structure. Yet, in learning large-scale data challenges arise, such as the curse of dimensionality and training complexity of FLSs. The complexity is due mainly to the constraints to be satisfied as the learnable parameters define FSs and the complexity of the center of the sets calculation method, especially of IT2-FLSs. This paper explicitly focuses on the learning problem of FLSs and presents a computationally efficient learning method embedded within the realm of Deep Learning (DL). The proposed method tackles the learning challenges of FLSs by presenting computationally efficient implementations of FLSs, thereby minimizing training time while leveraging mini-batched DL optimizers and automatic differentiation provided within the DL frameworks. We illustrate the efficiency of the DL framework for FLSs on benchmark datasets.
- Abstract(参考訳): Type-1 と Interval Type-2 (IT2) Fuzzy Logic Systems (FLS) は、それらの類似したルールベースの構造と共に不確実性を扱うのに優れている。
しかし、次元性の呪いやFLSの訓練の複雑さなど、大規模なデータ課題の学習において発生する。
複雑性は主に、学習可能なパラメータがFSを定義し、特にIT2-FLSの集合計算手法の中心が複雑になるため、満足すべき制約が原因である。
本稿では, FLS の学習問題に着目し,Deep Learning (DL) 領域に埋め込まれた計算効率の高い学習手法を提案する。
提案手法は,計算効率のよいFLSの実装を提示することにより,FLSの学習課題に対処し,最小バッチのDLオプティマイザとDLフレームワーク内の自動微分を活用しながら,トレーニング時間を最小化する。
ベンチマークデータセット上で、FLSのためのDLフレームワークの効率について説明する。
関連論文リスト
- R-SFLLM: Jamming Resilient Framework for Split Federated Learning with Large Language Models [83.77114091471822]
Split Federated Learning (SFL)は、分散機械学習(ML)における計算効率のパラダイムである。
SFLの課題は、特に無線チャネル上に展開する場合、送信されたモデルパラメータが相手のジャミングに感受性を持つことである。
これは、言語理解に不可欠である大規模言語モデル(LLM)における単語埋め込みパラメータに対して特に顕著である。
無線ネットワーク上でのLLM(R-SFLLM)を用いたレジリエンスSFLのための物理層フレームワークを開発した。
論文 参考訳(メタデータ) (2024-07-16T12:21:29Z) - LLS: Local Learning Rule for Deep Neural Networks Inspired by Neural Activity Synchronization [6.738409533239947]
従来のバックプロパゲーション(BP)を用いたディープニューラルネットワーク(DNN)のトレーニングは、計算複雑性とエネルギー消費の観点からの課題を提示している。
脳内で観察される神経活動同期現象(LLS)にインスパイアされた新しい局所学習規則を提案する。
LLSは、最大300倍の乗算累積(MAC)演算を減らし、BPのメモリ要求の半分で同等のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-05-24T18:24:24Z) - Enhancing Interval Type-2 Fuzzy Logic Systems: Learning for Precision and Prediction Intervals [2.526146573337397]
高リスクシナリオにおける予測区間(PI)生成の課題に,インターバルタイプ2(IT2)ファジィ論理系(FLS)の学習のための拡張を提案する。
まず,KM(Karnik Takagi-Mendel)とNT(Nie-Tan)に設計の柔軟性を付加し,PI生成の柔軟性を向上させる。
大規模学習課題に対処するため,IT2-FLSの制約をパラメータ化トリックによって非制約形式に変換する。
論文 参考訳(メタデータ) (2024-04-19T11:37:51Z) - Characterization of Large Language Model Development in the Datacenter [55.9909258342639]
大きな言語モデル(LLM)は、いくつかの変換タスクにまたがって素晴らしいパフォーマンスを示している。
しかし,大規模クラスタ資源を効率よく利用してLCMを開発することは容易ではない。
我々は,GPUデータセンタAcmeから収集した6ヶ月のLDM開発ワークロードの詳細な評価を行った。
論文 参考訳(メタデータ) (2024-03-12T13:31:14Z) - FederatedScope-LLM: A Comprehensive Package for Fine-tuning Large
Language Models in Federated Learning [70.38817963253034]
本稿では, ファインチューニング LLM のこれらの課題について論じ, 本パッケージ FS-LLM を主な貢献として紹介する。
我々は、FLシナリオにおける将来の拡張のために、包括的フェデレーションパラメータ効率の良い微調整アルゴリズムの実装と汎用プログラミングインタフェースを提供する。
本研究では, FS-LLM の有効性を検証し, FL 設定におけるパラメータ効率の高いパラメータ調整アルゴリズムを用いて, 高度な LLM のベンチマークを行う。
論文 参考訳(メタデータ) (2023-09-01T09:40:36Z) - Mitigating Catastrophic Forgetting in Long Short-Term Memory Networks [7.291687946822538]
シーケンシャルデータに対する継続的な学習は多くの機械学習(ML)デプロイメントにおいて重要である。
LSTMネットワークは破滅的な忘れ込みに悩まされており、複数のタスクを継続的に学習する能力に制限がある。
LSTMネットワークにおける破滅的な忘れは、2つの斬新で容易に実装可能な方法で克服できることがわかった。
論文 参考訳(メタデータ) (2023-05-26T20:17:18Z) - Adaptive Transmission Scheduling in Wireless Networks for Asynchronous
Federated Learning [13.490583662839725]
無線学習ネットワーク(WDLN)における非同期フェデレーションラーニング(FL)の研究
Asynchronous Learning-Aware transmission Scheduling (ALS) 問題を定式化し、効果スコアを最大化します。
ALSアルゴリズムによって訓練されたモデルが理想的なベンチマークによってそれに近い性能を達成することをシミュレーションによって示します。
論文 参考訳(メタデータ) (2021-03-02T02:28:20Z) - Optimization-driven Machine Learning for Intelligent Reflecting Surfaces
Assisted Wireless Networks [82.33619654835348]
インテリジェントサーフェス(IRS)は、個々の散乱素子の位相シフトを制御して無線チャネルを再形成するために用いられる。
散乱素子の規模が大きいため、受動ビームフォーミングは一般に高い計算複雑性によって挑戦される。
本稿では、IRS支援無線ネットワークの性能向上のための機械学習(ML)アプローチに焦点を当てる。
論文 参考訳(メタデータ) (2020-08-29T08:39:43Z) - A Survey on Large-scale Machine Learning [67.6997613600942]
機械学習はデータに対する深い洞察を与え、マシンが高品質な予測を行うことを可能にする。
ほとんどの高度な機械学習アプローチは、大規模なデータを扱う場合の膨大な時間コストに悩まされる。
大規模機械学習は、ビッグデータからパターンを、同等のパフォーマンスで効率的に学習することを目的としている。
論文 参考訳(メタデータ) (2020-08-10T06:07:52Z) - An Online Method for A Class of Distributionally Robust Optimization
with Non-Convex Objectives [54.29001037565384]
本稿では,オンライン分散ロバスト最適化(DRO)のクラスを解決するための実用的なオンライン手法を提案する。
本研究は,ネットワークの堅牢性向上のための機械学習における重要な応用を実証する。
論文 参考訳(メタデータ) (2020-06-17T20:19:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。