論文の概要: Fuzzy Reasoning Chain (FRC): An Innovative Reasoning Framework from Fuzziness to Clarity
- arxiv url: http://arxiv.org/abs/2509.22054v1
- Date: Fri, 26 Sep 2025 08:36:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:54.304025
- Title: Fuzzy Reasoning Chain (FRC): An Innovative Reasoning Framework from Fuzziness to Clarity
- Title(参考訳): Fuzzy Reasoning Chain (FRC): ファジィから明確への革新的推論フレームワーク
- Authors: Ping Chen, Xiang Liu, Zhaoxiang Liu, Zezhou Chen, Xingpeng Zhang, Huan Hu, Zipeng Wang, Kai Wang, Shuming Shi, Shiguo Lian,
- Abstract要約: Fuzzy Reasoning Chain(FRC)フレームワークは、セマンティックプリエントと連続したファジィメンバーシップの学位を統合する。
FRCは、解釈性と堅牢性を改善した微妙で曖昧な表現を管理するための一般的なメカニズムを提供する。
- 参考スコア(独自算出の注目度): 23.09943260167735
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the rapid advancement of large language models (LLMs), natural language processing (NLP) has achieved remarkable progress. Nonetheless, significant challenges remain in handling texts with ambiguity, polysemy, or uncertainty. We introduce the Fuzzy Reasoning Chain (FRC) framework, which integrates LLM semantic priors with continuous fuzzy membership degrees, creating an explicit interaction between probability-based reasoning and fuzzy membership reasoning. This transition allows ambiguous inputs to be gradually transformed into clear and interpretable decisions while capturing conflicting or uncertain signals that traditional probability-based methods cannot. We validate FRC on sentiment analysis tasks, where both theoretical analysis and empirical results show that it ensures stable reasoning and facilitates knowledge transfer across different model scales. These findings indicate that FRC provides a general mechanism for managing subtle and ambiguous expressions with improved interpretability and robustness.
- Abstract(参考訳): 大規模言語モデル(LLM)の急速な進歩により、自然言語処理(NLP)は目覚ましい進歩を遂げた。
それでも、曖昧さ、多義性、不確実性のあるテキストを扱う上で重要な課題は残る。
本稿では,LLMのセマンティクスを連続的なファジィメンバシップ度と統合し,確率ベース推論とファジィメンバシップ推論との明示的な相互作用を生成するファジィ推論チェイン(FRC)フレームワークを提案する。
この遷移により、あいまいな入力は徐々に明確で解釈可能な決定へと変換され、従来の確率ベースの手法では不可能な競合や不確実なシグナルを捉えることができる。
理論的解析と経験的結果の両方が、安定した推論を保証し、異なるモデルスケールでの知識伝達を促進することを示す。
これらの結果から, FRCは, 分かりやすさと頑健性を改善した微妙で曖昧な表現を管理するための一般的なメカニズムを提供することが明らかとなった。
関連論文リスト
- Explainable Chain-of-Thought Reasoning: An Empirical Analysis on State-Aware Reasoning Dynamics [69.00587226225232]
本研究では,CoTトラジェクトリを構造化潜在力学に抽象化する状態認識遷移フレームワークを提案する。
推論のグローバルな構造を特徴づけるために、それらの進行をマルコフ連鎖としてモデル化する。
この抽象化は、意味的役割の識別、時間的パターンの可視化、一貫性評価など、さまざまな分析をサポートする。
論文 参考訳(メタデータ) (2025-08-29T18:53:31Z) - CTRLS: Chain-of-Thought Reasoning via Latent State-Transition [57.51370433303236]
チェーン・オブ・シント(CoT)推論は、大規模な言語モデルで複雑な問題を解釈可能な中間ステップに分解することを可能にする。
我々は,遅延状態遷移を伴うマルコフ決定プロセス(MDP)としてCoT推論を定式化するフレームワークであるgroundingSを紹介する。
我々は、ベンチマーク推論タスクにおける推論精度、多様性、探索効率の改善を示す。
論文 参考訳(メタデータ) (2025-07-10T21:32:18Z) - Feature-Based vs. GAN-Based Learning from Demonstrations: When and Why [50.191655141020505]
この調査は、デモから学ぶ機能ベースのアプローチとGANベースのアプローチの比較分析を提供する。
特徴に基づく手法とGANに基づく手法の2分法はますます曖昧になっていると我々は主張する。
論文 参考訳(メタデータ) (2025-07-08T11:45:51Z) - Enhancing Uncertainty Estimation and Interpretability via Bayesian Non-negative Decision Layer [55.66973223528494]
本研究では, ディープニューラルネットワークを条件付きベイズ非負因子分析として再構成したベイズ非負決定層(BNDL)を開発した。
BNDLは複雑な依存関係をモデル化し、堅牢な不確実性推定を提供する。
また,BNDLが効果的に不整合学習を達成できるという理論的保証も提供する。
論文 参考訳(メタデータ) (2025-05-28T10:23:34Z) - Latent Structure Modulation in Large Language Models Through Stochastic Concept Embedding Transitions [0.0]
埋め込み遷移は、推論中にトークン表現を動的に調整する確率的メカニズムを導入する。
各トークンの埋め込みは確率的更新によって進化する移行フレームワークが提案された。
経験的評価では、語彙の多様性が向上し、生成コヒーレンスが向上し、低頻度語彙の保持が向上した。
論文 参考訳(メタデータ) (2025-02-08T12:53:52Z) - Proof of Thought : Neurosymbolic Program Synthesis allows Robust and Interpretable Reasoning [1.3003982724617653]
大規模言語モデル(LLM)は自然言語処理に革命をもたらしたが、一貫性のない推論に苦戦している。
本研究では,LLM出力の信頼性と透明性を高めるフレームワークであるProof of Thoughtを紹介する。
主な貢献は、論理的整合性を高めるためのソート管理を備えた堅牢な型システム、事実的知識と推論的知識を明確に区別するための規則の明示である。
論文 参考訳(メタデータ) (2024-09-25T18:35:45Z) - Decomposing Uncertainty for Large Language Models through Input Clarification Ensembling [69.83976050879318]
大規模言語モデル(LLM)では、不確実性の原因を特定することが、信頼性、信頼性、解釈可能性を改善するための重要なステップである。
本稿では,LLMのための不確実性分解フレームワークについて述べる。
提案手法は,入力に対する一連の明確化を生成し,それらをLLMに入力し,対応する予測をアンサンブルする。
論文 参考訳(メタデータ) (2023-11-15T05:58:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。