論文の概要: Non-Resolution Reasoning: A Framework for Preserving Semantic Ambiguity in Language Models
- arxiv url: http://arxiv.org/abs/2512.13478v1
- Date: Mon, 15 Dec 2025 16:14:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.740912
- Title: Non-Resolution Reasoning: A Framework for Preserving Semantic Ambiguity in Language Models
- Title(参考訳): 非解法推論:言語モデルにおける意味的曖昧性を保存するためのフレームワーク
- Authors: Kei Saito,
- Abstract要約: 推論中の意味的あいまいさを保存する一般的な計算フレームワークであるNon-Resolution Reasoning (NRR)を紹介する。
NRRは3つのコンポーネントを統合している。トークン毎に複数の実行可能な解釈を維持するマルチレゾリューション・エンベディング、レイヤ間のすべてのダイナミクスの獲得を防ぐ非コラッピング・アテンション、コンテキストアイデンティティ追跡(CIT)である。
標準的なアーキテクチャとは異なり、NRRの解像度は、単一のモデルで、再トレーニングすることなく、創造的、事実的、曖昧性を保存する推論を切り替えることができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Premature semantic collapse -- the forced early commitment to a single meaning -- remains a core architectural limitation of current language models. Softmax-driven competition and greedy decoding cause models to discard valid interpretations before sufficient context is available, resulting in brittle reasoning and context failures. We introduce Non-Resolution Reasoning (NRR), a general computational framework that preserves semantic ambiguity during inference and performs resolution only when explicitly required. NRR integrates three components: (1) Multi-Vector Embeddings that maintain multiple viable interpretations per token, (2) Non-Collapsing Attention that prevents winner-take-all dynamics across layers, and (3) Contextual Identity Tracking (CIT), which assigns context-specific identities to recurring entities (e.g., distinguishing "Dr. Smith the cardiologist" from "Dr. Smith the researcher"). These mechanisms are unified by an external Resolution Operator $ρ$ that makes semantic commitment explicit, controllable, and task-dependent. Unlike standard architectures, NRR separates representation from resolution, allowing a single model to shift between creative, factual, and ambiguity-preserving reasoning without retraining. A synthetic evaluation demonstrates NRR's ability to preserve ambiguity and track context: CIT-enhanced models achieve 90.9% accuracy on out-of-distribution identity-shift tasks, compared to 9.1% for transformer baselines. NRR provides a principled alternative to premature collapse, reframing ambiguity as an explicit representational state rather than a failure mode. The question is not whether AI should resolve ambiguity, but when, how, and under whose control.
- Abstract(参考訳): 早期のセマンティック崩壊 -- ひとつの意味への強制的な早期コミットメント -- は、現在の言語モデルの中核的なアーキテクチャ上の制限であり続けている。
ソフトマックス駆動の競合と強欲な復号化は、十分なコンテキストが利用可能になる前に有効な解釈を破棄し、不安定な推論とコンテキスト障害をもたらす。
我々は、推論中に意味的曖昧さを保ち、明示的に要求された場合にのみ解決を行う一般的な計算フレームワークであるNon-Resolution Reasoning (NRR)を紹介する。
NRRは、(1)トークンごとの複数の実行可能な解釈を維持するマルチベクター・エンベディング、(2)レイヤー間の全てのダイナミックスを阻止する非コラプシング・アテンション、(3)コンテキスト固有のアイデンティティを再発するエンティティに割り当てるコンテキスト識別トラッキング(CIT、Dr. Smithを「研究者のDr. Smith」と区別するなど)の3つのコンポーネントを統合している。
これらのメカニズムは、セマンティックなコミットメントを明確にし、制御可能で、タスクに依存した外部解像度演算子$ρ$によって統合されます。
標準的なアーキテクチャとは異なり、NRRは解像度から表現を分離し、単一のモデルが再トレーニングせずに創造的、事実的、曖昧さを保った推論を切り替えることを可能にする。
CIT強化モデルは、トランスフォーマーベースラインの9.1%に比べて、分配外アイデンティティシフトタスクにおいて90.9%の精度を達成する。
NRRは、障害モードではなく、明示的な表現状態として曖昧さを緩和する、初期崩壊に対する原則的な代替手段を提供する。
問題は、AIがあいまいさを解決すべきかどうかではなく、いつ、どのように、そしてその支配下にあるかである。
関連論文リスト
- Beyond Predictive Uncertainty: Reliable Representation Learning with Structural Constraints [0.3948325938742681]
信頼性は、学習した表現そのものの第一級の性質と見なされるべきである。
本稿では,表現レベルの不確実性を明示的にモデル化する信頼性のある表現学習のための原則的フレームワークを提案する。
提案手法では,不確実性を考慮した正規化が直接表現空間に導入され,予測的だけでなく,安定的で,校正的であり,ノイズや構造的摂動に対して頑健な表現が奨励される。
論文 参考訳(メタデータ) (2026-01-22T18:19:52Z) - Heterogeneous Uncertainty-Guided Composed Image Retrieval with Fine-Grained Probabilistic Learning [49.28548464288051]
Composed Image Retrieval (CIR)は、参照画像と修正テキストを組み合わせることで、画像検索を可能にする。
CIR三重項の内在ノイズは内在的不確実性を引き起こし、モデルの堅牢性を脅かす。
本稿では,これらの制約を克服するための不確実性誘導(HUG)パラダイムを提案する。
論文 参考訳(メタデータ) (2026-01-16T16:05:49Z) - Text-to-State Mapping for Non-Resolution Reasoning: The Contradiction-Preservation Principle [0.0]
非解答推論(Non-Resolution Reasoning、NRR)は、初期解釈の崩壊を強制するのではなく、意味的曖昧性を維持するための正式な枠組みを提供する。
本稿では,言語入力をNRRフレームワーク内の重ね合わせ状態に変換するテキスト間マッピング機能を提案する。
論文 参考訳(メタデータ) (2026-01-12T08:04:47Z) - The Reasoning-Creativity Trade-off: Toward Creativity-Driven Problem Solving [57.652356955571065]
最先端の大規模言語モデル(LLM)パイプラインは、ブートストラップの推論ループに依存している。
我々は、この設計選択が、推論経路上のモデルの分布の崩壊にどのように敏感であるかを分析する。
本稿では,分散創造推論(DCR)について紹介する。これは,解トレースの確率測定を通じて,トレーニングを勾配流としてキャストする,統一的な変分目的である。
論文 参考訳(メタデータ) (2026-01-02T17:10:31Z) - Less Is More for Multi-Step Logical Reasoning of LLM Generalisation Under Rule Removal, Paraphrasing, and Compression [3.3492355863487275]
大規模言語モデル(LLM)は多くの自然言語処理において高い性能を達成するが、論理規則系の構造的摂動下での一般化は依然として不十分である。
本研究では,4つの応力試験による推理信頼性の検証を行う制御評価フレームワークを提案する。
論文 参考訳(メタデータ) (2025-12-06T10:49:50Z) - Step-Aware Policy Optimization for Reasoning in Diffusion Large Language Models [57.42778606399764]
拡散言語モデル(dLLM)は、テキスト生成に有望で非自己回帰的なパラダイムを提供する。
現在の強化学習アプローチは、しばしばスパースで結果に基づく報酬に頼っている。
これは推論の自然な構造との根本的なミスマッチに由来すると我々は主張する。
論文 参考訳(メタデータ) (2025-10-02T00:34:15Z) - RealUnify: Do Unified Models Truly Benefit from Unification? A Comprehensive Benchmark [71.3555284685426]
本稿では,双方向機能相乗効果を評価するためのベンチマークであるRealUnifyを紹介する。
RealUnifyは、10のカテゴリと32のサブタスクにまたがる、細心の注意を払ってアノテートされた1000のインスタンスで構成されている。
現在の統一モデルは、効果的な相乗効果を達成するのに依然として苦労しており、アーキテクチャの統一だけでは不十分であることを示している。
論文 参考訳(メタデータ) (2025-09-29T15:07:28Z) - Deliberative Reasoning Network: An Uncertainty-Driven Paradigm for Belief-Tracked Inference with Pretrained Language Models [7.095344389368656]
Deliberative Reasoning Network (DRN) は、確率から不確実性への論理的推論を再構成する新しいパラダイムである。
DRNは、信念状態を明示的に追跡し、競合する仮説の不確実性を定量化することによって、本質的な解釈可能性を達成する。
我々は、DRNを、より信頼できるAIシステムを構築するための、基礎的で検証可能なシステム2推論コンポーネントとして位置付ける。
論文 参考訳(メタデータ) (2025-08-06T11:33:35Z) - The Recursive Coherence Principle: A Formal Constraint on Scalable Intelligence, Alignment, and Reasoning Architecture [0.0]
コヒーレンス(coherence)は、高階構造がセマンティック一貫性を保証しない限り脆弱である。
本稿ではRecursive Coherence Principle (RCP)を紹介する。
我々は、任意の規模でRCPを満たすことができる唯一の既知の演算子として、FMI(Functional Model of Intelligence)を定義する。
論文 参考訳(メタデータ) (2025-07-18T09:44:01Z) - Explainable Rule Application via Structured Prompting: A Neural-Symbolic Approach [0.0]
大規模言語モデル(LLM)は複雑な推論タスクでは優れているが、一貫性のあるルールアプリケーション、例外処理、説明可能性に苦慮している。
本稿では、推論を3つの検証可能なステップ(エンティティ識別、プロパティ抽出、シンボリックルール適用)に分解する構造化プロンプトフレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-19T14:14:01Z) - Beyond Exponential Decay: Rethinking Error Accumulation in Large Language Models [0.0]
エラーは均一に分散されていないが、重要な決定ジャンクションを表すスパースな"キートークン"に集中していることを示す。
本稿では,意味的に重要なトークンを選択的に保存することを目的とした次世代システムのためのフレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-30T03:57:31Z) - Hierarchical Invariance for Robust and Interpretable Vision Tasks at Larger Scales [54.78115855552886]
本稿では、畳み込みニューラルネットワーク(CNN)のような階層型アーキテクチャを用いて、オーバーコンプリート不変量を構築する方法を示す。
オーバーコンプリート性により、そのタスクはニューラルアーキテクチャサーチ(NAS)のような方法で適応的に形成される。
大規模で頑健で解釈可能な視覚タスクの場合、階層的不変表現は伝統的なCNNや不変量に対する効果的な代替物とみなすことができる。
論文 参考訳(メタデータ) (2024-02-23T16:50:07Z) - STAR Loss: Reducing Semantic Ambiguity in Facial Landmark Detection [80.04000067312428]
本稿では,意味的あいまいさの特性を利用した自己適応型あいまいさ低減(STAR)の損失を提案する。
意味的あいまいさは異方性予測分布をもたらすことが分かり、予測分布を用いて意味的あいまいさを表現する。
また,分布の異常変化とモデルの初期収束を回避できる2種類の固有値制限法を提案する。
論文 参考訳(メタデータ) (2023-06-05T10:33:25Z) - Understanding and Constructing Latent Modality Structures in Multi-modal
Representation Learning [53.68371566336254]
優れたパフォーマンスの鍵は、完全なモダリティアライメントではなく、有意義な潜在モダリティ構造にある、と我々は主張する。
具体的には,1)モダリティ内正規化のための深い特徴分離損失,2)モダリティ間正規化のためのブラウン橋損失,3)モダリティ内正規化およびモダリティ間正規化のための幾何学的整合損失を設計する。
論文 参考訳(メタデータ) (2023-03-10T14:38:49Z) - Dive into Ambiguity: Latent Distribution Mining and Pairwise Uncertainty
Estimation for Facial Expression Recognition [59.52434325897716]
DMUE(DMUE)という,アノテーションのあいまいさを2つの視点から解決するソリューションを提案する。
前者に対しては,ラベル空間における潜伏分布をよりよく記述するために,補助的マルチブランチ学習フレームワークを導入する。
後者の場合、インスタンス間の意味的特徴のペアワイズ関係を完全に活用して、インスタンス空間のあいまいさの程度を推定する。
論文 参考訳(メタデータ) (2021-04-01T03:21:57Z) - Towards a Theoretical Understanding of the Robustness of Variational
Autoencoders [82.68133908421792]
敵攻撃や他の入力摂動に対する変分オートエンコーダ(VAE)の堅牢性を理解するために,我々は進出している。
確率モデルにおけるロバスト性のための新しい基準である$r$-robustnessを開発する。
遠心法を用いて訓練したVAEが、ロバストネスの指標でよく評価されていることを示す。
論文 参考訳(メタデータ) (2020-07-14T21:22:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。