論文の概要: Enhancing Interval Type-2 Fuzzy Logic Systems: Learning for Precision and Prediction Intervals
- arxiv url: http://arxiv.org/abs/2404.12802v1
- Date: Fri, 19 Apr 2024 11:37:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-22 15:16:46.776294
- Title: Enhancing Interval Type-2 Fuzzy Logic Systems: Learning for Precision and Prediction Intervals
- Title(参考訳): インターバル型2ファジィ論理系の拡張:精度と予測間隔の学習
- Authors: Ata Koklu, Yusuf Guven, Tufan Kumbasar,
- Abstract要約: 高リスクシナリオにおける予測区間(PI)生成の課題に,インターバルタイプ2(IT2)ファジィ論理系(FLS)の学習のための拡張を提案する。
まず,KM(Karnik Takagi-Mendel)とNT(Nie-Tan)に設計の柔軟性を付加し,PI生成の柔軟性を向上させる。
大規模学習課題に対処するため,IT2-FLSの制約をパラメータ化トリックによって非制約形式に変換する。
- 参考スコア(独自算出の注目度): 2.526146573337397
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this paper, we tackle the task of generating Prediction Intervals (PIs) in high-risk scenarios by proposing enhancements for learning Interval Type-2 (IT2) Fuzzy Logic Systems (FLSs) to address their learning challenges. In this context, we first provide extra design flexibility to the Karnik-Mendel (KM) and Nie-Tan (NT) center of sets calculation methods to increase their flexibility for generating PIs. These enhancements increase the flexibility of KM in the defuzzification stage while the NT in the fuzzification stage. To address the large-scale learning challenge, we transform the IT2-FLS's constraint learning problem into an unconstrained form via parameterization tricks, enabling the direct application of deep learning optimizers. To address the curse of dimensionality issue, we expand the High-Dimensional Takagi-Sugeno-Kang (HTSK) method proposed for type-1 FLS to IT2-FLSs, resulting in the HTSK2 approach. Additionally, we introduce a framework to learn the enhanced IT2-FLS with a dual focus, aiming for high precision and PI generation. Through exhaustive statistical results, we reveal that HTSK2 effectively addresses the dimensionality challenge, while the enhanced KM and NT methods improved learning and enhanced uncertainty quantification performances of IT2-FLSs.
- Abstract(参考訳): 本稿では,高リスクシナリオにおける予測区間(PI)の生成に取り組み,その学習課題に対処するためにインターバルタイプ2(IT2)ファジィ論理系(FLS)の学習強化を提案する。
この文脈では、まずKarnik-Mendel (KM) と Nie-Tan (NT) の中心に余分な設計の柔軟性を提供し、PI生成の柔軟性を高める。
これらの改良により, 溶解段階におけるKMの柔軟性が向上し, 溶融段階におけるNTの柔軟性が向上した。
大規模学習課題に対処するため,IT2-FLSの制約学習問題をパラメータ化トリックによって制約のない形式に変換し,ディープラーニングオプティマイザの直接適用を可能にする。
次元問題の呪いに対処するため,タイプ1 FLSをIT2-FLSに拡張する高次元高木スゲノカン(HTSK)法を提案し,その結果,HTSK2法が提案される。
さらに,IT2-FLSの高度化とPI生成を目的としたフレームワークも導入した。
総合的な統計的結果から,HTSK2は次元問題に効果的に対応し,KM法とNT法はIT2-FLSの学習と不確実性定量化性能を改善した。
関連論文リスト
- Physics-Informed Neural Networks with Trust-Region Sequential Quadratic Programming [4.557963624437784]
最近の研究によると、物理情報ニューラルネットワーク(PINN)は比較的複雑な部分微分方程式(PDE)を学習できない可能性がある。
本稿では, 信頼領域逐次準計画法(trSQP-PINN)を導入し, PINNの障害モードに対処する。
PINNのようにペナル化ソフト制約損失を直接訓練するのに対し,本手法はソフト制約損失を利用して信頼範囲半径を適応的に調整しながら,ハード制約損失の線形2次近似を行う。
論文 参考訳(メタデータ) (2024-09-16T23:22:12Z) - Revisiting Interpolation Augmentation for Speech-to-Text Generation [45.255833976931456]
音声テキスト生成システム(S2T)は、低リソースシナリオにおいてしばしば課題に直面している。
新たなソリューションのひとつは、入力とラベルを補間することで、仮想トレーニングサンプルを構築することだ。
本稿では,いくつかの重要な疑問に導かれる拡張性について考察する。
論文 参考訳(メタデータ) (2024-06-22T13:24:58Z) - Efficient Learning of Fuzzy Logic Systems for Large-Scale Data Using Deep Learning [2.526146573337397]
本稿では,FLSの学習問題に着目し,深層学習(DL)領域に埋め込まれた計算効率の高い学習手法を提案する。
提案手法は、FLSの効率的な実装を活用することにより、FLSの学習課題に対処し、トレーニング時間を最小化する。
ベンチマークデータセット上で、FLSのためのDLフレームワークの効率について説明する。
論文 参考訳(メタデータ) (2024-04-19T11:09:55Z) - Diffusion-Based Neural Network Weights Generation [80.89706112736353]
D2NWGは拡散に基づくニューラルネットワーク重み生成技術であり、転送学習のために高性能な重みを効率よく生成する。
本稿では,ニューラルネットワーク重み生成のための遅延拡散パラダイムを再放送するために,生成的ハイパー表現学習を拡張した。
我々のアプローチは大規模言語モデル(LLM)のような大規模アーキテクチャにスケーラブルであり、現在のパラメータ生成技術の限界を克服しています。
論文 参考訳(メタデータ) (2024-02-28T08:34:23Z) - Entropy-Regularized Token-Level Policy Optimization for Language Agent Reinforcement [67.1393112206885]
大規模言語モデル(LLM)は、対話的な意思決定タスクにおいてインテリジェントなエージェントとして期待されている。
本稿では,トークンレベルでのLLMの最適化に適したエントロピー拡張RL法である,エントロピー正規化トークンレベル最適化(ETPO)を導入する。
我々は,データサイエンスコード生成を多段階対話型タスクのシリーズとしてモデル化したシミュレーション環境におけるETPOの有効性を評価する。
論文 参考訳(メタデータ) (2024-02-09T07:45:26Z) - RLEEGNet: Integrating Brain-Computer Interfaces with Adaptive AI for
Intuitive Responsiveness and High-Accuracy Motor Imagery Classification [0.0]
本稿では,Deep Q-Networks (DQN) を用いた強化学習を分類タスクに活用するフレームワークを提案する。
本稿では,OVR(One-Versus-The-Rest)方式で,マルチクラス運動画像(MI)分類のための前処理手法を提案する。
DQNと1D-CNN-LSTMアーキテクチャの統合は意思決定プロセスをリアルタイムで最適化する。
論文 参考訳(メタデータ) (2024-02-09T02:03:13Z) - SAPT: A Shared Attention Framework for Parameter-Efficient Continual Learning of Large Language Models [71.78800549517298]
大規模言語モデル(LLM)を動的世界に展開するには,継続的な学習(CL)能力が不可欠である。
既存の方法は、パラメータ効率チューニング(PET)ブロックを用いてタスク固有の知識を取得するための学習モジュールと、テスト入力に対して対応するものを選択するための選択モジュールを考案する。
本稿では,共有注意学習と選択モジュールを通じてPET学習と選択を調整するための新しい共有注意フレームワーク(SAPT)を提案する。
論文 参考訳(メタデータ) (2024-01-16T11:45:03Z) - High Dimensional Level Set Estimation with Bayesian Neural Network [58.684954492439424]
本稿では,ベイズニューラルネットワークを用いた高次元レベル集合推定問題を解く新しい手法を提案する。
各問題に対して対応する理論情報に基づく取得関数を導出してデータポイントをサンプリングする。
合成データセットと実世界データセットの数値実験により,提案手法は既存手法よりも優れた結果が得られることが示された。
論文 参考訳(メタデータ) (2020-12-17T23:21:53Z) - Towards Accurate Knowledge Transfer via Target-awareness Representation
Disentanglement [56.40587594647692]
本稿では,TRED(Target-Awareness Representation Disentanglement)の概念を取り入れた新しいトランスファー学習アルゴリズムを提案する。
TREDは、対象のタスクに関する関連する知識を元のソースモデルから切り離し、ターゲットモデルを微調整する際、レギュレータとして使用する。
各種実世界のデータセットを用いた実験により,本手法は標準微調整を平均2%以上安定的に改善することが示された。
論文 参考訳(メタデータ) (2020-10-16T17:45:08Z) - Optimization-driven Machine Learning for Intelligent Reflecting Surfaces
Assisted Wireless Networks [82.33619654835348]
インテリジェントサーフェス(IRS)は、個々の散乱素子の位相シフトを制御して無線チャネルを再形成するために用いられる。
散乱素子の規模が大きいため、受動ビームフォーミングは一般に高い計算複雑性によって挑戦される。
本稿では、IRS支援無線ネットワークの性能向上のための機械学習(ML)アプローチに焦点を当てる。
論文 参考訳(メタデータ) (2020-08-29T08:39:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。