論文の概要: Cognitive Surgery: The Awakening of Implicit Territorial Awareness in LLMs
- arxiv url: http://arxiv.org/abs/2508.14408v1
- Date: Wed, 20 Aug 2025 04:08:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-21 16:52:41.334935
- Title: Cognitive Surgery: The Awakening of Implicit Territorial Awareness in LLMs
- Title(参考訳): 認知外科 : LLMにおける意図しない領域認識の覚醒
- Authors: Yinghan Zhou, Weifeng Zhu, Juan Wen, Wanli Peng, Zhengxian Wu, Yiming Xue,
- Abstract要約: 我々は,大規模言語モデル (LLM) が,個人表現パラダイム (IPP) に基づく自己生成テキストと他の生成テキストとの区別に苦慮していることを示す。
次に、この失敗の原因を調査し、Implicit Territorial Awareness (ITA) という現象とみなす。
本研究では, LLM の ITA を実現するために, 表現抽出, 領域構築, 著者識別, 認知編集の4つの主要モジュールからなる新しいフレームワークである認知手術(CoSur)を提案する。
- 参考スコア(独自算出の注目度): 11.274791012904263
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) have been shown to possess a degree of self-recognition capability-the ability to identify whether a given text was generated by themselves. Prior work has demonstrated that this capability is reliably expressed under the Pair Presentation Paradigm (PPP), where the model is presented with two texts and asked to choose which one it authored. However, performance deteriorates sharply under the Individual Presentation Paradigm (IPP), where the model is given a single text to judge authorship. Although this phenomenon has been observed, its underlying causes have not been systematically analyzed. In this paper, we first replicate existing findings to confirm that LLMs struggle to distinguish self- from other-generated text under IPP. We then investigate the reasons for this failure and attribute it to a phenomenon we term Implicit Territorial Awareness (ITA)-the model's latent ability to distinguish self- and other-texts in representational space, which remains unexpressed in its output behavior. To awaken the ITA of LLMs, we propose Cognitive Surgery (CoSur), a novel framework comprising four main modules: representation extraction, territory construction, authorship discrimination and cognitive editing. Experimental results demonstrate that our proposed method improves the performance of three different LLMs in the IPP scenario, achieving average accuracies of 83.25%, 66.19%, and 88.01%, respectively.
- Abstract(参考訳): 大規模言語モデル(LLM)は、与えられたテキストが自分自身によって生成されたかどうかを識別する能力である、ある程度の自己認識能力を持っていることが示されている。
以前の研究では、この能力はPair Presentation Paradigm (PPP)の下で確実に表現され、そこでモデルは2つのテキストで示され、どれを作成したかを選択するように求められていた。
しかし、個人プレゼンテーションパラダイム(IPP)では、著者を判断する単一テキストが与えられるため、パフォーマンスが急激に悪化する。
この現象は観測されているが、その根本原因は体系的に分析されていない。
本稿では,IPP 下での自己生成テキストと自己生成テキストの区別に LLM が苦労していることを確認するために,既存の知見を最初に複製した。
次に、この失敗の原因を調査し、モデルが表現空間における自己および他文を識別する潜在能力を示す現象をImplicit Territorial Awareness (ITA) という現象とみなす。
本研究では, LLM の ITA を実現するために, 表現抽出, 領域構築, 著者識別, 認知編集の4つの主要モジュールからなる新しいフレームワークである認知手術(CoSur)を提案する。
実験の結果,提案手法はIPPシナリオにおける3種類のLCMの性能を改善し,平均精度は83.25%,66.19%,88.01%であった。
関連論文リスト
- Tracing Thought: Using Chain-of-Thought Reasoning to Identify the LLM Behind AI-Generated Text [1.7034813545878589]
COT Fine-tunedはAI生成テキストを検出するための新しいフレームワークである。
提案手法の主な革新は,チェーン・オブ・ソート推論の利用である。
実験の結果、COTは両方のタスクで高精度に調整された。
論文 参考訳(メタデータ) (2025-04-23T17:39:49Z) - What Makes In-context Learning Effective for Mathematical Reasoning: A Theoretical Analysis [81.15503859645149]
本稿では,大規模言語モデルの推論性能に及ぼす文脈内実演の影響を理論的に解析することを目的とする。
本稿では, LMS3 という, 単純で一般化可能な, 低複雑さな実演選択法を提案する。
論文 参考訳(メタデータ) (2024-12-11T11:38:11Z) - Evaluating the Reliability of Self-Explanations in Large Language Models [2.8894038270224867]
このような自己説明の2つのタイプ – 抽出的, 対実的 – を評価した。
以上の結果から,これらの自己説明は人間の判断と相関するが,モデルの決定過程を完全に的確に従わないことが明らかとなった。
このギャップを橋渡しできるのは, 反実的な説明をLCMに促すことによって, 忠実で, 情報的で, 容易に検証できる結果が得られるからである。
論文 参考訳(メタデータ) (2024-07-19T17:41:08Z) - Do Large Language Models Exhibit Cognitive Dissonance? Studying the Difference Between Revealed Beliefs and Stated Answers [13.644277507363036]
Revealed Beliefは,不確実性を考慮した推論を必要とするタスクに対して,Large Language Models (LLMs)を評価する評価フレームワークである。
以上の結果から,LSMは正しい回答をしばしば述べるが,Revealed Beliefは確率質量を不整合に割り当てることが多く,体系的な偏見を示し,新しい証拠が提示された時にその信念を適切に更新することができないことが示唆された。
論文 参考訳(メタデータ) (2024-06-21T08:56:35Z) - Interpreting Key Mechanisms of Factual Recall in Transformer-Based Language Models [68.83330172211315]
本研究では,トランスフォーマーベース言語モデル(LLM)を用いて,現実的なリコール処理を行うメカニズムについて検討する。
出力の出力を人間の理解するコンポーネントに分解することを目的とした,新しい分析手法を提案する。
我々は、事実的リコールの信頼性を高めるために、私たちの解釈を活用することで、この抑制を緩和する。
論文 参考訳(メタデータ) (2024-03-28T15:54:59Z) - Large Language Models Cannot Self-Correct Reasoning Yet [78.16697476530994]
LLM(Large Language Models)は、非並列テキスト生成機能を備えた画期的な技術として登場した。
生成したコンテンツの正確性と適切性に関する懸念が続いている。
現代の方法論である自己補正がこれらの問題に対する対策として提案されている。
論文 参考訳(メタデータ) (2023-10-03T04:56:12Z) - Improving Open Information Extraction with Large Language Models: A
Study on Demonstration Uncertainty [52.72790059506241]
オープン情報抽出(OIE)タスクは、構造化されていないテキストから構造化された事実を抽出することを目的としている。
一般的なタスク解決手段としてChatGPTのような大きな言語モデル(LLM)の可能性にもかかわらず、OIEタスクの最先端(教師付き)メソッドは遅れている。
論文 参考訳(メタデータ) (2023-09-07T01:35:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。