論文の概要: Alternating Bi-Objective Optimization for Explainable Neuro-Fuzzy Systems
- arxiv url: http://arxiv.org/abs/2602.19253v1
- Date: Sun, 22 Feb 2026 16:08:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.550622
- Title: Alternating Bi-Objective Optimization for Explainable Neuro-Fuzzy Systems
- Title(参考訳): 説明可能なニューロファジィシステムのための交互二目的最適化
- Authors: Qusai Khaled, Uzay Kaymak, Laura Genga,
- Abstract要約: ファジィ客観的システムは、ルールベースのアーキテクチャ言語変数により、説明可能なAIに強い可能性を示す。
X-ANFISは競争精度を維持しながら、MOO以外のソリューションを回復する。
- 参考スコア(独自算出の注目度): 2.761009930426063
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fuzzy systems show strong potential in explainable AI due to their rule-based architecture and linguistic variables. Existing approaches navigate the accuracy-explainability trade-off either through evolutionary multi-objective optimization (MOO), which is computationally expensive, or gradient-based scalarization, which cannot recover non-convex Pareto regions. We propose X-ANFIS, an alternating bi-objective gradient-based optimization scheme for explainable adaptive neuro-fuzzy inference systems. Cauchy membership functions are used for stable training under semantically controlled initializations, and a differentiable explainability objective is introduced and decoupled from the performance objective through alternating gradient passes. Validated in approximately 5,000 experiments on nine UCI regression datasets, X-ANFIS consistently achieves target distinguishability while maintaining competitive predictive accuracy, recovering solutions beyond the convex hull of the MOO Pareto front.
- Abstract(参考訳): ファジィシステムは、ルールベースのアーキテクチャと言語変数により、説明可能なAIに強い可能性を示す。
既存のアプローチは、計算コストのかかる進化的多目的最適化(MOO)や、非凸パレート領域を回復できない勾配に基づくスカラー化によって、精度と説明可能性のトレードオフをナビゲートする。
本稿では,適応型ニューロファジィ推論システムのための2目的勾配を交互に最適化するX-ANFISを提案する。
コーシーなメンバシップ関数は、意味的に制御された初期化の下で安定なトレーニングに使用され、微分可能な説明可能性の目的を導入して、交互勾配パスによって性能目標から分離する。
9つのUCI回帰データセットに関する約5,000の実験で検証されたX-ANFISは、競合予測精度を維持しながら、目標の識別性を一貫して達成し、MOO Paretoフロントの凸殻を越えたソリューションを回復する。
関連論文リスト
- Variational Entropic Optimal Transport [67.76725267984578]
本稿では,ドメイン翻訳問題に対する変分エントロピー最適輸送(VarEOT)を提案する。
VarEOTは、補助正の正規化子上のトラクタブルな一般化として、log-partition $log mathbbE[exp(cdot)$の正確な変分再構成に基づいている。
合成データと画像と画像の変換に関する実験は、競争力のあるか、あるいはより良い翻訳品質を示す。
論文 参考訳(メタデータ) (2026-02-02T15:48:44Z) - Learning to Evolve with Convergence Guarantee via Neural Unrolling [37.99564850768798]
両レベルのメタ最適化フレームワークであるL2E(Learning to Evolve)を導入する。
L2Eは、KM(Krasnosel'skii-Mann)固定点理論に基づくニューラルアンローリング過程として進化探索を再構成する。
実験では、高次元空間におけるL2Eのスケーラビリティと、合成および実世界の制御タスクにまたがる堅牢なゼロショット一般化が示される。
論文 参考訳(メタデータ) (2025-12-12T10:46:25Z) - Towards a Unified Analysis of Neural Networks in Nonparametric Instrumental Variable Regression: Optimization and Generalization [66.08522228989634]
非パラメトリックインスツルメンタル変数回帰(NPIV)における2段階最小二乗法(2SLS)アプローチのためのニューラルネットワークの最初の大域収束結果を確立する。
これは平均場ランゲヴィンダイナミクス(MFLD)を通して持ち上げられた視点を採用することで達成される。
論文 参考訳(メタデータ) (2025-11-18T17:51:17Z) - Neural Optimal Transport Meets Multivariate Conformal Prediction [58.43397908730771]
条件付きベクトル回帰(CVQR)のためのフレームワークを提案する。
CVQRは、ニューラルネットワークの最適輸送と量子化された最適化を組み合わせて、予測に適用する。
論文 参考訳(メタデータ) (2025-09-29T19:50:19Z) - A Variational Framework for Residual-Based Adaptivity in Neural PDE Solvers and Operator Learning [3.758814046658822]
残差ベースの適応戦略は機械学習で広く使われているが、多くは残っている。
残差の凸変換を統合することにより,これらの手法を形式化する統一的変分フレームワークを導入する。
本結果は,残差に基づく適応性の理論的正当性を提供し,原理的離散化と訓練戦略の基礎を確立した。
論文 参考訳(メタデータ) (2025-09-17T17:34:03Z) - Branch, or Layer? Zeroth-Order Optimization for Continual Learning of Vision-Language Models [44.27801276966812]
本稿では、視覚言語連続学習(VLCL)のためのゼロ次最適化(ZO)の体系的探索を開拓する。
まず,VLCLにおけるNuive full-ZO導入の不適合性について検討した。
我々は、浅層と深層表現の不均一な学習力学を活かして、ZOとFOをネットワーク層にインターリーブする階層最適化パラダイムを開発した。
論文 参考訳(メタデータ) (2025-06-14T08:59:19Z) - Achieving Constraints in Neural Networks: A Stochastic Augmented
Lagrangian Approach [49.1574468325115]
DNN(Deep Neural Networks)の正規化は、一般化性の向上とオーバーフィッティングの防止に不可欠である。
制約付き最適化問題としてトレーニングプロセスのフレーミングによるDNN正規化に対する新しいアプローチを提案する。
我々はAugmented Lagrangian (SAL) 法を用いて、より柔軟で効率的な正規化機構を実現する。
論文 参考訳(メタデータ) (2023-10-25T13:55:35Z) - Efficient and Flexible Neural Network Training through Layer-wise Feedback Propagation [49.44309457870649]
レイヤワイドフィードバックフィードバック(LFP)は、ニューラルネットワークのような予測器のための新しいトレーニング原則である。
LFPはそれぞれの貢献に基づいて個々のニューロンに報酬を分解する。
提案手法は,ネットワークの有用な部分と有害な部分の弱体化を両立させる手法である。
論文 参考訳(メタデータ) (2023-08-23T10:48:28Z) - Scalable Bayesian Meta-Learning through Generalized Implicit Gradients [64.21628447579772]
Inlicit Bayesian Meta-learning (iBaML) 法は、学習可能な事前のスコープを広げるだけでなく、関連する不確実性も定量化する。
解析誤差境界は、明示的よりも一般化された暗黙的勾配の精度と効率を示すために確立される。
論文 参考訳(メタデータ) (2023-03-31T02:10:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。