論文の概要: Non-Resolution Reasoning: A Framework for Preserving Semantic Ambiguity in Language Models
- arxiv url: http://arxiv.org/abs/2512.13478v1
- Date: Mon, 15 Dec 2025 16:14:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.740912
- Title: Non-Resolution Reasoning: A Framework for Preserving Semantic Ambiguity in Language Models
- Title(参考訳): 非解法推論:言語モデルにおける意味的曖昧性を保存するためのフレームワーク
- Authors: Kei Saito,
- Abstract要約: 推論中の意味的あいまいさを保存する一般的な計算フレームワークであるNon-Resolution Reasoning (NRR)を紹介する。
NRRは3つのコンポーネントを統合している。トークン毎に複数の実行可能な解釈を維持するマルチレゾリューション・エンベディング、レイヤ間のすべてのダイナミクスの獲得を防ぐ非コラッピング・アテンション、コンテキストアイデンティティ追跡(CIT)である。
標準的なアーキテクチャとは異なり、NRRの解像度は、単一のモデルで、再トレーニングすることなく、創造的、事実的、曖昧性を保存する推論を切り替えることができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Premature semantic collapse -- the forced early commitment to a single meaning -- remains a core architectural limitation of current language models. Softmax-driven competition and greedy decoding cause models to discard valid interpretations before sufficient context is available, resulting in brittle reasoning and context failures. We introduce Non-Resolution Reasoning (NRR), a general computational framework that preserves semantic ambiguity during inference and performs resolution only when explicitly required. NRR integrates three components: (1) Multi-Vector Embeddings that maintain multiple viable interpretations per token, (2) Non-Collapsing Attention that prevents winner-take-all dynamics across layers, and (3) Contextual Identity Tracking (CIT), which assigns context-specific identities to recurring entities (e.g., distinguishing "Dr. Smith the cardiologist" from "Dr. Smith the researcher"). These mechanisms are unified by an external Resolution Operator $ρ$ that makes semantic commitment explicit, controllable, and task-dependent. Unlike standard architectures, NRR separates representation from resolution, allowing a single model to shift between creative, factual, and ambiguity-preserving reasoning without retraining. A synthetic evaluation demonstrates NRR's ability to preserve ambiguity and track context: CIT-enhanced models achieve 90.9% accuracy on out-of-distribution identity-shift tasks, compared to 9.1% for transformer baselines. NRR provides a principled alternative to premature collapse, reframing ambiguity as an explicit representational state rather than a failure mode. The question is not whether AI should resolve ambiguity, but when, how, and under whose control.
- Abstract(参考訳): 早期のセマンティック崩壊 -- ひとつの意味への強制的な早期コミットメント -- は、現在の言語モデルの中核的なアーキテクチャ上の制限であり続けている。
ソフトマックス駆動の競合と強欲な復号化は、十分なコンテキストが利用可能になる前に有効な解釈を破棄し、不安定な推論とコンテキスト障害をもたらす。
我々は、推論中に意味的曖昧さを保ち、明示的に要求された場合にのみ解決を行う一般的な計算フレームワークであるNon-Resolution Reasoning (NRR)を紹介する。
NRRは、(1)トークンごとの複数の実行可能な解釈を維持するマルチベクター・エンベディング、(2)レイヤー間の全てのダイナミックスを阻止する非コラプシング・アテンション、(3)コンテキスト固有のアイデンティティを再発するエンティティに割り当てるコンテキスト識別トラッキング(CIT、Dr. Smithを「研究者のDr. Smith」と区別するなど)の3つのコンポーネントを統合している。
これらのメカニズムは、セマンティックなコミットメントを明確にし、制御可能で、タスクに依存した外部解像度演算子$ρ$によって統合されます。
標準的なアーキテクチャとは異なり、NRRは解像度から表現を分離し、単一のモデルが再トレーニングせずに創造的、事実的、曖昧さを保った推論を切り替えることを可能にする。
CIT強化モデルは、トランスフォーマーベースラインの9.1%に比べて、分配外アイデンティティシフトタスクにおいて90.9%の精度を達成する。
NRRは、障害モードではなく、明示的な表現状態として曖昧さを緩和する、初期崩壊に対する原則的な代替手段を提供する。
問題は、AIがあいまいさを解決すべきかどうかではなく、いつ、どのように、そしてその支配下にあるかである。
関連論文リスト
- Less Is More for Multi-Step Logical Reasoning of LLM Generalisation Under Rule Removal, Paraphrasing, and Compression [3.3492355863487275]
大規模言語モデル(LLM)は多くの自然言語処理において高い性能を達成するが、論理規則系の構造的摂動下での一般化は依然として不十分である。
本研究では,4つの応力試験による推理信頼性の検証を行う制御評価フレームワークを提案する。
論文 参考訳(メタデータ) (2025-12-06T10:49:50Z) - RealUnify: Do Unified Models Truly Benefit from Unification? A Comprehensive Benchmark [71.3555284685426]
本稿では,双方向機能相乗効果を評価するためのベンチマークであるRealUnifyを紹介する。
RealUnifyは、10のカテゴリと32のサブタスクにまたがる、細心の注意を払ってアノテートされた1000のインスタンスで構成されている。
現在の統一モデルは、効果的な相乗効果を達成するのに依然として苦労しており、アーキテクチャの統一だけでは不十分であることを示している。
論文 参考訳(メタデータ) (2025-09-29T15:07:28Z) - Deliberative Reasoning Network: An Uncertainty-Driven Paradigm for Belief-Tracked Inference with Pretrained Language Models [7.095344389368656]
Deliberative Reasoning Network (DRN) は、確率から不確実性への論理的推論を再構成する新しいパラダイムである。
DRNは、信念状態を明示的に追跡し、競合する仮説の不確実性を定量化することによって、本質的な解釈可能性を達成する。
我々は、DRNを、より信頼できるAIシステムを構築するための、基礎的で検証可能なシステム2推論コンポーネントとして位置付ける。
論文 参考訳(メタデータ) (2025-08-06T11:33:35Z) - Explainable Rule Application via Structured Prompting: A Neural-Symbolic Approach [0.0]
大規模言語モデル(LLM)は複雑な推論タスクでは優れているが、一貫性のあるルールアプリケーション、例外処理、説明可能性に苦慮している。
本稿では、推論を3つの検証可能なステップ(エンティティ識別、プロパティ抽出、シンボリックルール適用)に分解する構造化プロンプトフレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-19T14:14:01Z) - Beyond Exponential Decay: Rethinking Error Accumulation in Large Language Models [0.0]
エラーは均一に分散されていないが、重要な決定ジャンクションを表すスパースな"キートークン"に集中していることを示す。
本稿では,意味的に重要なトークンを選択的に保存することを目的とした次世代システムのためのフレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-30T03:57:31Z) - Hierarchical Invariance for Robust and Interpretable Vision Tasks at Larger Scales [54.78115855552886]
本稿では、畳み込みニューラルネットワーク(CNN)のような階層型アーキテクチャを用いて、オーバーコンプリート不変量を構築する方法を示す。
オーバーコンプリート性により、そのタスクはニューラルアーキテクチャサーチ(NAS)のような方法で適応的に形成される。
大規模で頑健で解釈可能な視覚タスクの場合、階層的不変表現は伝統的なCNNや不変量に対する効果的な代替物とみなすことができる。
論文 参考訳(メタデータ) (2024-02-23T16:50:07Z) - STAR Loss: Reducing Semantic Ambiguity in Facial Landmark Detection [80.04000067312428]
本稿では,意味的あいまいさの特性を利用した自己適応型あいまいさ低減(STAR)の損失を提案する。
意味的あいまいさは異方性予測分布をもたらすことが分かり、予測分布を用いて意味的あいまいさを表現する。
また,分布の異常変化とモデルの初期収束を回避できる2種類の固有値制限法を提案する。
論文 参考訳(メタデータ) (2023-06-05T10:33:25Z) - Dive into Ambiguity: Latent Distribution Mining and Pairwise Uncertainty
Estimation for Facial Expression Recognition [59.52434325897716]
DMUE(DMUE)という,アノテーションのあいまいさを2つの視点から解決するソリューションを提案する。
前者に対しては,ラベル空間における潜伏分布をよりよく記述するために,補助的マルチブランチ学習フレームワークを導入する。
後者の場合、インスタンス間の意味的特徴のペアワイズ関係を完全に活用して、インスタンス空間のあいまいさの程度を推定する。
論文 参考訳(メタデータ) (2021-04-01T03:21:57Z) - Towards a Theoretical Understanding of the Robustness of Variational
Autoencoders [82.68133908421792]
敵攻撃や他の入力摂動に対する変分オートエンコーダ(VAE)の堅牢性を理解するために,我々は進出している。
確率モデルにおけるロバスト性のための新しい基準である$r$-robustnessを開発する。
遠心法を用いて訓練したVAEが、ロバストネスの指標でよく評価されていることを示す。
論文 参考訳(メタデータ) (2020-07-14T21:22:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。