論文の概要: Ambiguity Collapse by LLMs: A Taxonomy of Epistemic Risks
- arxiv url: http://arxiv.org/abs/2603.05801v1
- Date: Fri, 06 Mar 2026 01:23:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-09 13:17:44.878348
- Title: Ambiguity Collapse by LLMs: A Taxonomy of Epistemic Risks
- Title(参考訳): LLMによる曖昧性崩壊 : 疫学リスクの分類
- Authors: Shira Gur-Arieh, Angelina Wang, Sina Fazelpour,
- Abstract要約: 大規模言語モデル(LLM)はあいまいで、オープンなテクスチャ付き、バリューラインドな言葉を理解するためにますます使われています。
本稿では,LLMが複数の正当解釈を真に認める用語に遭遇するが,特異解を生成する現象であるあいまいさ崩壊を紹介する。
- 参考スコア(独自算出の注目度): 5.45414933764086
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) are increasingly used to make sense of ambiguous, open-textured, value-laden terms. Platforms routinely rely on LLMs for content moderation, asking them to label text based on disputed concepts like "hate speech" or "incitement"; hiring managers may use LLMs to rank who counts as "qualified"; and AI labs increasingly train models to self-regulate under constitutional-style ambiguous principles such as "biased" or "legitimate". This paper introduces ambiguity collapse: a phenomenon that occurs when an LLM encounters a term that genuinely admits multiple legitimate interpretations, yet produces a singular resolution, in ways that bypass the human practices through which meaning is ordinarily negotiated, contested, and justified. Drawing on interdisciplinary accounts of ambiguity as a productive epistemic resource, we develop a taxonomy of the epistemic risks posed by ambiguity collapse at three levels: process (foreclosing opportunities to deliberate, develop cognitive skills, and shape contested terms), output (distorting the concepts and reasons agents act upon), and ecosystem (reshaping shared vocabularies, interpretive norms, and how concepts evolve over time). We illustrate these risks through three case studies, and conclude by sketching multi-layer mitigation principles spanning training, institutional deployment design, interface affordances, and the management of underspecified prompts, with the goal of designing systems that surface, preserve, and responsibly govern ambiguity.
- Abstract(参考訳): 大規模言語モデル(LLM)はあいまいで、オープンなテクスチャ付き、バリューラインドな言葉を理解するためにますます使われています。
プラットフォームはコンテンツモデレーションに LLM を常用し、"憎しみの言葉" や "扇動" といった議論を巻き起こした概念に基づいたテキストのラベル付けを依頼する; 雇用管理者は LLM を使って "資格" と数えられる人をランク付けし、AI ラボは "バイアス" や "レジデント" のような憲法スタイルの曖昧な原則の下でモデルを自己規制するようにモデルを訓練するようになる。
本稿では,LLMが複数の正統な解釈を真に認める用語に遭遇した場合に発生する曖昧さの崩壊について述べる。
あいまいさを生産的な疫資源として学際的な説明に基づいて、曖昧さの崩壊によって引き起こされる疫学リスクの分類法を、プロセス(意図的、認知スキルを発達させ、競合する言葉を形作る機会を開示する)、アウトプット(エージェントが行動する概念と理由を歪曲する)、エコシステム(共通語彙、解釈規範、時間の経過とともにどのように進化するか)の3段階に展開する。
これらのリスクを3つのケーススタディを通じて説明し、トレーニング、制度的な展開設計、インターフェースの余裕、未特定なプロンプトの管理にまたがる多層緩和の原則を、曖昧さを表面化し、保存し、責任を持って支配するシステムを設計することを目的として記述する。
関連論文リスト
- Concept Component Analysis: A Principled Approach for Concept Extraction in LLMs [51.378834857406325]
機械的解釈可能性(Mechanistic interpretability)は、大きな言語モデルからの抽出によって問題を緩和しようとする。
スパースオートエンコーダ (SAE) は、解釈可能・単意味的な概念を抽出するための一般的なアプローチである。
SAEは基本的な理論的曖昧さに悩まされており、LLM表現と人間解釈可能な概念との明確に定義された対応はいまだに不明である。
論文 参考訳(メタデータ) (2026-01-28T09:27:05Z) - Semantic Deception: When Reasoning Models Can't Compute an Addition [0.6361348748202731]
本稿では,新しい記号表現を用いた大規模言語モデル(LLM)の推論機能について検討する。
シンボルが形によって誤解を招く意味的関連性を持つ状況について,意味的誤認を紹介する。
非常に単純なタスクにおいて、セマンティック・キューは推論モデルの性能を著しく劣化させる可能性があることを示す。
論文 参考訳(メタデータ) (2025-12-23T22:22:18Z) - MENTOR: A Metacognition-Driven Self-Evolution Framework for Uncovering and Mitigating Implicit Risks in LLMs on Domain Tasks [17.598413159363393]
現在のアライメントの取り組みは、主に偏見、ヘイトスピーチ、暴力のような明確なリスクをターゲットにしている。
本稿では,大規模言語モデルにおける暗黙的リスクの解消と軽減を目的とした,メタ認知駆動型セルフエボリューティオンフレームワークMENTORを提案する。
我々は、ドメイン固有のリスク識別を強化するために、教育、財務、管理にまたがる9000のリスククエリをサポートするデータセットをリリースする。
論文 参考訳(メタデータ) (2025-11-10T13:51:51Z) - The Unified Cognitive Consciousness Theory for Language Models: Anchoring Semantics, Thresholds of Activation, and Emergent Reasoning [2.0800882594868293]
統一認知意識理論(UCCT)は、これらを巨大な無意識パターンリポジトリとみなしている。
UCCTはこの過程を、事前学習で学んだ統計的事前学習と文脈駆動のターゲットパターンの間のベイズ的競争として定式化している。
我々はこの理論を、しきい値交差、モダリティ、密度距離予測力の3つの原理で基礎づける。
論文 参考訳(メタデータ) (2025-06-02T18:12:43Z) - RULEBREAKERS: Challenging LLMs at the Crossroads between Formal Logic and Human-like Reasoning [3.0648414540406703]
RULEBREAKERSは、大規模な言語モデルによるルールブレーカーの認識と応答を人間的な方法で厳格に評価するための最初のデータセットです。
GPT-4oを含むほとんどのモデルでは、RULEBREAKERSの中間精度が得られ、典型的な人間の推論と異なり、論理規則を過度に適用する傾向が見られた。
論文 参考訳(メタデータ) (2024-10-21T20:48:16Z) - Phenomenal Yet Puzzling: Testing Inductive Reasoning Capabilities of Language Models with Hypothesis Refinement [92.61557711360652]
言語モデル(LM)は、しばしば帰納的推論に不足する。
我々は,反復的仮説修正を通じて,LMの帰納的推論能力を体系的に研究する。
本研究は, LMの誘導的推論過程と人間とのいくつかの相違点を明らかにし, 誘導的推論タスクにおけるLMの使用の可能性と限界に光を当てる。
論文 参考訳(メタデータ) (2023-10-12T17:51:10Z) - Simple Linguistic Inferences of Large Language Models (LLMs): Blind Spots and Blinds [59.71218039095155]
我々は,ほとんどの人間が自明に感じる単純な推論タスクにおいて,言語理解能力を評価する。
我々は, (i) 文法的に特定された含意, (ii) 不確実性のある明らかな副詞を持つ前提, (iii) 単調性含意を目標とする。
モデルはこれらの評価セットに対して中程度から低い性能を示す。
論文 参考訳(メタデータ) (2023-05-24T06:41:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。