論文の概要: FAME: Introducing Fuzzy Additive Models for Explainable AI
- arxiv url: http://arxiv.org/abs/2504.07011v1
- Date: Wed, 09 Apr 2025 16:29:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-10 13:05:41.242540
- Title: FAME: Introducing Fuzzy Additive Models for Explainable AI
- Title(参考訳): FAME: 説明可能なAIのためのファジィ付加モデルの導入
- Authors: Omer Bahadir Gokmen, Yusuf Guven, Tufan Kumbasar,
- Abstract要約: 我々は、説明可能な人工知能(XAI)のソリューションとして、ファジィ付加モデル(FAM)と説明可能性を持つFAME(FAME)を導入する。
FAMEは、より少ないアクティブなルールで入力-出力関係をキャプチャし、明確性を向上させる。
FAMEはより少ないアクティブなルールで入力-出力関係をキャプチャし、明瞭さを向上する。
- 参考スコア(独自算出の注目度): 2.526146573337397
- License:
- Abstract: In this study, we introduce the Fuzzy Additive Model (FAM) and FAM with Explainability (FAME) as a solution for Explainable Artificial Intelligence (XAI). The family consists of three layers: (1) a Projection Layer that compresses the input space, (2) a Fuzzy Layer built upon Single Input-Single Output Fuzzy Logic Systems (SFLS), where SFLS functions as subnetworks within an additive index model, and (3) an Aggregation Layer. This architecture integrates the interpretability of SFLS, which uses human-understandable if-then rules, with the explainability of input-output relationships, leveraging the additive model structure. Furthermore, using SFLS inherently addresses issues such as the curse of dimensionality and rule explosion. To further improve interpretability, we propose a method for sculpting antecedent space within FAM, transforming it into FAME. We show that FAME captures the input-output relationships with fewer active rules, thus improving clarity. To learn the FAM family, we present a deep learning framework. Through the presented comparative results, we demonstrate the promising potential of FAME in reducing model complexity while retaining interpretability, positioning it as a valuable tool for XAI.
- Abstract(参考訳): 本研究では,Fazy Additive Model (FAM) とFAME with Explainability (FAME) を,説明可能な人工知能 (XAI) のソリューションとして紹介する。
ファミリーは,(1)入力空間を圧縮する射影層,(2)単一入出力ファジィ論理系(SFLS)上に構築されたファジィ層,(3)アグリゲーション層からなる。
このアーキテクチャは、人間の理解可能なif-thenルールを使用するSFLSの解釈可能性と、追加モデル構造を利用した入出力関係の説明可能性を統合する。
さらに、SFLSの使用は本質的に次元の呪いや規則の爆発といった問題に対処する。
解釈性をさらに向上するために,FAM内の先行空間を彫刻し,それをFAMEに変換する手法を提案する。
FAMEはより少ないアクティブなルールで入力-出力関係をキャプチャし、明瞭さを向上する。
FAMファミリを学習するために,我々は深層学習フレームワークを提案する。
提案した比較結果を通じて,モデルの複雑さを低減しつつ,解釈可能性を維持しつつ,それをXAIにとって価値のあるツールとして位置づける上で,FAMEの有望な可能性を示す。
関連論文リスト
- Disentangling Memory and Reasoning Ability in Large Language Models [97.26827060106581]
本稿では、複雑な推論プロセスを2つの異なる明確なアクションに分解する新しい推論パラダイムを提案する。
実験の結果, この分解によりモデル性能が向上し, 推論プロセスの解釈可能性も向上することがわかった。
論文 参考訳(メタデータ) (2024-11-20T17:55:38Z) - Distribution Guided Active Feature Acquisition [14.279123976398926]
本研究では,環境と対話して新たな情報を得るための能動的特徴獲得フレームワークを開発する。
データに存在する情報と条件依存を理解するバックボーン上に、AFAフレームワークを構築します。
生成モデルから得られた副作用および補助報酬を用いて,AFAに対するRLエージェントのトレーニングを指導することが可能であることが示唆された。
論文 参考訳(メタデータ) (2024-10-04T20:38:30Z) - Talking Heads: Understanding Inter-layer Communication in Transformer Language Models [32.2976613483151]
2つのLMで用いられるメカニズムを分析し、1つのタスクでコンテキスト内のアイテムを選択的に抑制する。
モデルが残ストリームの低ランクな部分空間に書き込まれて,後続のレイヤで読み出される特徴を表現することが分かりました。
論文 参考訳(メタデータ) (2024-06-13T18:12:01Z) - Explaining Black-box Model Predictions via Two-level Nested Feature Attributions with Consistency Property [8.793424363526212]
本稿では,2段階の特徴属性を同時に推定するモデルに依存しない局所的説明法を提案する。
提案手法の重要な考え方は、HiFAとLoFAの間に存在するべき一貫性性を導入することである。
この一貫性により、提案手法は、ブラックボックスモデルに忠実であり、互いに一貫性のあるHiFAとLoFAを生成できる。
論文 参考訳(メタデータ) (2024-05-23T13:03:26Z) - Explaining Text Similarity in Transformer Models [52.571158418102584]
説明可能なAIの最近の進歩により、トランスフォーマーの説明の改善を活用することで、制限を緩和できるようになった。
両線形類似性モデルにおける2次説明の計算のために開発された拡張であるBiLRPを用いて、NLPモデルにおいてどの特徴相互作用が類似性を促進するかを調べる。
我々の発見は、異なる意味的類似性タスクやモデルに対するより深い理解に寄与し、新しい説明可能なAIメソッドが、どのようにして深い分析とコーパスレベルの洞察を可能にするかを強調した。
論文 参考訳(メタデータ) (2024-05-10T17:11:31Z) - Towards LLM-guided Causal Explainability for Black-box Text Classifiers [16.36602400590088]
我々は,近年の大規模言語モデルにおける命令追従とテキスト理解機能を活用して,因果的説明可能性を高めることを目指している。
提案する3ステップパイプラインは,既製のLCMを用いて,入力テキスト中の潜時的・未観測な特徴を識別する。
我々は,複数のNLPテキスト分類データセットを用いたパイプライン実験を行い,興味深い,有望な結果を示した。
論文 参考訳(メタデータ) (2023-09-23T11:22:28Z) - Improving Open Information Extraction with Large Language Models: A
Study on Demonstration Uncertainty [52.72790059506241]
オープン情報抽出(OIE)タスクは、構造化されていないテキストから構造化された事実を抽出することを目的としている。
一般的なタスク解決手段としてChatGPTのような大きな言語モデル(LLM)の可能性にもかかわらず、OIEタスクの最先端(教師付き)メソッドは遅れている。
論文 参考訳(メタデータ) (2023-09-07T01:35:24Z) - Interpretability at Scale: Identifying Causal Mechanisms in Alpaca [62.65877150123775]
本研究では、Boundless DASを用いて、命令に従う間、大規模言語モデルにおける解釈可能な因果構造を効率的に探索する。
私たちの発見は、成長し、最も広くデプロイされている言語モデルの内部構造を忠実に理解するための第一歩です。
論文 参考訳(メタデータ) (2023-05-15T17:15:40Z) - Bi-Bimodal Modality Fusion for Correlation-Controlled Multimodal
Sentiment Analysis [96.46952672172021]
Bi-Bimodal Fusion Network (BBFN) は、2対のモダリティ表現で融合を行う新しいエンドツーエンドネットワークである。
モデルは、モダリティ間の既知の情報不均衡により、2つのバイモーダルペアを入力として取る。
論文 参考訳(メタデータ) (2021-07-28T23:33:42Z) - Human-interpretable model explainability on high-dimensional data [8.574682463936007]
2つのモジュールからなる高次元データに対する人間解釈可能な説明可能性のためのフレームワークを提案する。
まず、データの生の次元性を減らし、人間の解釈可能性を確保するために、意味的に意味のある潜在表現を適用する。
第2に、モデルに依存しないこれらの潜在的特徴を扱うために、Shapleyパラダイムを適用し、理論的に制御され、計算的に抽出可能なモデル説明をもたらす。
論文 参考訳(メタデータ) (2020-10-14T20:06:28Z) - PIN: A Novel Parallel Interactive Network for Spoken Language
Understanding [68.53121591998483]
既存の RNN ベースのアプローチでは、ID と SF のタスクは、それらの間の相関情報を利用するために、しばしば共同でモデル化される。
SNIPSとATISという2つのベンチマークデータセットによる実験は、我々のアプローチの有効性を実証している。
さらに,事前学習した言語モデルBERTが生成した発話の特徴埋め込みを用いて,提案手法はすべての比較手法の中で最先端の手法を実現する。
論文 参考訳(メタデータ) (2020-09-28T15:59:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。