論文の概要: A Class Inference Scheme With Dempster-Shafer Theory for Learning Fuzzy-Classifier Systems
- arxiv url: http://arxiv.org/abs/2506.03588v1
- Date: Wed, 04 Jun 2025 05:38:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 21:20:14.167965
- Title: A Class Inference Scheme With Dempster-Shafer Theory for Learning Fuzzy-Classifier Systems
- Title(参考訳): ファジィクラシファイアシステム学習のためのDempster-Shafer理論を用いたクラス推論方式
- Authors: Hiroki Shiraishi, Hisao Ishibuchi, Masaya Nakata,
- Abstract要約: 本稿では,ファジィ分類システム(LFCS)を学習するための新しいクラス推論手法を紹介する。
DS理論を用いて、このスキームは特定のクラスごとに信念の質量を計算し、それぞれのファジィ規則から「I'''状態」を計算し、これらの信念の質量からクラスを推論する。
よりスムーズな決定境界を形成し、信頼性対策を提供し、現実のアプリケーションにおけるLFCSの堅牢性と一般化性を高める。
- 参考スコア(独自算出の注目度): 3.9394231697721023
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The decision-making process significantly influences the predictions of machine learning models. This is especially important in rule-based systems such as Learning Fuzzy-Classifier Systems (LFCSs) where the selection and application of rules directly determine prediction accuracy and reliability. LFCSs combine evolutionary algorithms with supervised learning to optimize fuzzy classification rules, offering enhanced interpretability and robustness. Despite these advantages, research on improving decision-making mechanisms (i.e., class inference schemes) in LFCSs remains limited. Most LFCSs use voting-based or single-winner-based inference schemes. These schemes rely on classification performance on training data and may not perform well on unseen data, risking overfitting. To address these limitations, this article introduces a novel class inference scheme for LFCSs based on the Dempster-Shafer Theory of Evidence (DS theory). The proposed scheme handles uncertainty well. By using the DS theory, the scheme calculates belief masses (i.e., measures of belief) for each specific class and the ``I don't know'' state from each fuzzy rule and infers a class from these belief masses. Unlike the conventional schemes, the proposed scheme also considers the ``I don't know'' state that reflects uncertainty, thereby improving the transparency and reliability of LFCSs. Applied to a variant of LFCS (i.e., Fuzzy-UCS), the proposed scheme demonstrates statistically significant improvements in terms of test macro F1 scores across 30 real-world datasets compared to conventional voting-based and single-winner-based fuzzy inference schemes. It forms smoother decision boundaries, provides reliable confidence measures, and enhances the robustness and generalizability of LFCSs in real-world applications. Our implementation is available at https://github.com/YNU-NakataLab/jUCS.
- Abstract(参考訳): 意思決定プロセスは機械学習モデルの予測に大きな影響を及ぼす。
これは例えばLearning Fuzzy-Classifier Systems (LFCS) のようなルールベースのシステムにおいて特に重要であり、ルールの選択と適用によって予測精度と信頼性が直接決定される。
LFCSは進化的アルゴリズムと教師付き学習を組み合わせてファジィ分類規則を最適化し、解釈可能性と堅牢性を高める。
これらの利点にもかかわらず、LFCSにおける意思決定機構(クラス推論スキーム)の改善に関する研究は限られている。
ほとんどのLFCSは投票ベースまたはシングルウィンナーベースの推論スキームを使用している。
これらのスキームは、トレーニングデータに対する分類性能に依存しており、見当たらないデータに対してうまく機能せず、過度に適合するリスクがある。
これらの制約に対処するため,本稿では,Dempster-Shafer Theory of Evidence(DS理論)に基づくLFCSの新しいクラス推論手法を提案する。
提案方式は不確実性をうまく扱える。
DS理論を用いて、このスキームはそれぞれの特定のクラスに対する信念の質量(すなわち、信念の尺度)と「私は知らない」状態をファジィ規則から計算し、これらの信念の質量からクラスを推論する。
従来のスキームとは異なり、提案手法は不確実性を反映した 'I don't know' 状態も考慮し、LFCSの透明性と信頼性を向上させる。
LFCSの変種(すなわちFuzzy-UCS)に適用された提案手法は、従来の投票ベースおよびシングルウィンナーベースのファジィ推論方式と比較して、30の実世界のデータセットにわたるテストマクロF1スコアの統計的に有意な改善を示す。
よりスムーズな決定境界を形成し、信頼性対策を提供し、現実のアプリケーションにおけるLFCSの堅牢性と一般化性を高める。
実装はhttps://github.com/YNU-NakataLab/jUCS.comで公開しています。
関連論文リスト
- Fuzzy-UCS Revisited: Self-Adaptation of Rule Representations in Michigan-Style Learning Fuzzy-Classifier Systems [0.0]
本稿では,LFCS(Learning Fuzzy-Classifier Systems)におけるルール表現が,その分類性能に与える影響に焦点を当てる。
自己適応型ルール表現機構を持つ教師付きLFCS(Adaptive-UCS)を提案する。
実験の結果、Adaptive-UCSは従来の超長方形およびファジィ・超長方形規則表現で他のUCSよりも優れていた。
論文 参考訳(メタデータ) (2025-05-09T12:59:29Z) - Cycles of Thought: Measuring LLM Confidence through Stable Explanations [53.15438489398938]
大規模言語モデル(LLM)は、様々なベンチマークで人間レベルの精度に到達し、さらに超えることができるが、不正確な応答における過度な自信は、依然として十分に文書化された障害モードである。
本稿では,LLMの不確実性を測定するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-05T16:35:30Z) - When Does Confidence-Based Cascade Deferral Suffice? [69.28314307469381]
カスケードは、推論コストをサンプル毎に適応的に変化させる古典的な戦略である。
deferralルールは、シーケンス内の次の分類子を呼び出すか、または予測を終了するかを決定する。
カスケードの構造に執着しているにもかかわらず、信頼に基づく推論は実際は極めてうまく機能することが多い。
論文 参考訳(メタデータ) (2023-07-06T04:13:57Z) - Federated Conformal Predictors for Distributed Uncertainty
Quantification [83.50609351513886]
コンフォーマル予測は、機械学習において厳密な不確実性定量化を提供するための一般的なパラダイムとして現れつつある。
本稿では,共形予測を連邦学習環境に拡張する。
本稿では、FL設定に適した部分交換可能性の弱い概念を提案し、それをフェデレート・コンフォーマル予測フレームワークの開発に利用する。
論文 参考訳(メタデータ) (2023-05-27T19:57:27Z) - Benchmark for Uncertainty & Robustness in Self-Supervised Learning [0.0]
セルフ・スーパーバイザード・ラーニングは現実世界のアプリケーション、特に医療や自動運転車のようなデータ・ハングリーな分野に不可欠である。
本稿では Jigsaw Puzzles, Context, Rotation, Geometric Transformations Prediction for vision や BERT や GPT for Language Task など,SSL メソッドの変種について検討する。
我々のゴールは、実験から出力されたベンチマークを作成し、信頼性のある機械学習で新しいSSLメソッドの出発点を提供することです。
論文 参考訳(メタデータ) (2022-12-23T15:46:23Z) - Confident Sinkhorn Allocation for Pseudo-Labeling [40.883130133661304]
半教師付き学習は、ラベル付きデータへの機械学習の依存を減らす重要なツールである。
本稿では,疑似ラベル作成における不確実性の役割を理論的に研究し,CSA(Confident Sinkhorn Allocation)を提案する。
CSAは、信頼度の高いサンプルのみへの最適な輸送を通して、最高の擬似ラベル割り当てを特定する。
論文 参考訳(メタデータ) (2022-06-13T02:16:26Z) - Source-Free Progressive Graph Learning for Open-Set Domain Adaptation [44.63301903324783]
オープンセットドメイン適応(OSDA)は多くの視覚認識タスクで注目されている。
目的仮説空間を共有空間と未知の部分空間に分解するプログレッシブグラフ学習(PGL)フレームワークを提案する。
また、ソースとターゲットドメインの共存を前提としない、より現実的なオープンソースフリーなオープンセットドメイン適応(SF-OSDA)に取り組みます。
論文 参考訳(メタデータ) (2022-02-13T01:19:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。