論文の概要: Humans Perceive Wrong Narratives from AI Reasoning Texts
- arxiv url: http://arxiv.org/abs/2508.16599v2
- Date: Thu, 28 Aug 2025 11:53:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-29 13:55:31.74033
- Title: Humans Perceive Wrong Narratives from AI Reasoning Texts
- Title(参考訳): 人間は、AIの推論テキストから間違った物語を知覚する
- Authors: Mosh Levy, Zohar Elyoseph, Yoav Goldberg,
- Abstract要約: 新しい世代のAIモデルは、回答を生成する前にステップバイステップの推論テキストを生成する。
このテキストに対する人間の理解が実際の計算過程と一致するかどうかは不明である。
- 参考スコア(独自算出の注目度): 26.472074065985
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A new generation of AI models generates step-by-step reasoning text before producing an answer. This text appears to offer a human-readable window into their computation process, and is increasingly relied upon for transparency and interpretability. However, it is unclear whether human understanding of this text matches the model's actual computational process. In this paper, we investigate a necessary condition for correspondence: the ability of humans to identify which steps in a reasoning text causally influence later steps. We evaluated humans on this ability by composing questions based on counterfactual measurements and found a significant discrepancy: participant accuracy was only 29%, barely above chance (25%), and remained low (42%) even when evaluating the majority vote on questions with high agreement. Our results reveal a fundamental gap between how humans interpret reasoning texts and how models use it, challenging its utility as a simple interpretability tool. We argue that reasoning texts should be treated as an artifact to be investigated, not taken at face value, and that understanding the non-human ways these models use language is a critical research direction.
- Abstract(参考訳): 新しい世代のAIモデルは、回答を生成する前にステップバイステップの推論テキストを生成する。
このテキストは、その計算プロセスに人間が読める窓を提供するように見え、透明性と解釈可能性にますます頼っている。
しかし、このテキストに対する人間の理解が実際の計算過程と一致するかどうかは不明である。
本稿では,文中のどのステップが後段に因果的に影響するかを人間が識別する能力という,対応に必要な条件について検討する。
回答の精度は29%に過ぎず, 確率は25%に過ぎず, 多数票を高い合意で評価しても低い (42%) に留まった。
以上の結果から,人間による推論テキストの解釈方法とモデルによる利用方法との根本的なギャップが明らかとなり,シンプルな解釈可能性ツールとしての実用性に挑戦する。
我々は、推論テキストは、顔の価値ではなく、調査対象のアーティファクトとして扱われるべきであり、これらのモデルが言語を使用する非人間的な方法を理解することは、重要な研究の方向性であると主張している。
関連論文リスト
- Hallucination vs interpretation: rethinking accuracy and precision in AI-assisted data extraction for knowledge synthesis [0.9898534984111934]
我々は,大規模言語モデル(LLM)を用いてデータ抽出を自動化する抽出プラットフォームを開発した。
我々は、AIを187の出版物で人間の反応と比較し、スコーピングレビューから17の質問を抽出した。
AIの多様性は幻覚よりも解釈可能性に依存している。
論文 参考訳(メタデータ) (2025-08-13T03:33:30Z) - Is Human-Like Text Liked by Humans? Multilingual Human Detection and Preference Against AI [95.81924314159943]
人文と機械文の大きなギャップは、具体性、文化的ニュアンス、多様性にある。
また,人間は必ずしも人書きのテキストを好んではいないこと,特にその情報源を明確に特定できない場合などを見いだす。
論文 参考訳(メタデータ) (2025-02-17T09:56:46Z) - ExaGPT: Example-Based Machine-Generated Text Detection for Human Interpretability [62.285407189502216]
LLM(Large Language Models)によって生成されたテキストの検出は、誤った判断によって致命的な誤りを引き起こす可能性がある。
本稿では,人間の意思決定プロセスに根ざした解釈可能な検出手法であるExaGPTを紹介する。
以上の結果から,ExaGPTは従来の強力な検出器よりも最大で40.9ポイントの精度を1%の偽陽性率で大きく上回っていることが明らかとなった。
論文 参考訳(メタデータ) (2025-02-17T01:15:07Z) - Trying to be human: Linguistic traces of stochastic empathy in language models [0.2638512174804417]
大規模言語モデル(LLM)は、コンピュータ生成コンテンツの質向上を支える重要な要因である。
私たちの研究は、2つの重要な要因が人間とAIの人種にどのように貢献するかをテストする。
論文 参考訳(メタデータ) (2024-10-02T15:46:40Z) - ChatGPT Rates Natural Language Explanation Quality Like Humans: But on Which Scales? [7.307538454513983]
本研究では,ChatGPTと人的評価のアライメントについて,複数の尺度で検討する。
3つのNLEデータセットから300のデータインスタンスをサンプリングし、900人のアノテーションを収集します。
以上の結果から,ChatGPTはより粗いスケールで人間とよく一致していることがわかった。
論文 参考訳(メタデータ) (2024-03-26T04:07:08Z) - On the Possibilities of AI-Generated Text Detection [76.55825911221434]
機械が生成するテキストが人間に近い品質を近似するにつれて、検出に必要なサンプルサイズが増大すると主張している。
GPT-2, GPT-3.5-Turbo, Llama, Llama-2-13B-Chat-HF, Llama-2-70B-Chat-HFなどの最先端テキストジェネレータをoBERTa-Large/Base-Detector, GPTZeroなどの検出器に対して試験した。
論文 参考訳(メタデータ) (2023-04-10T17:47:39Z) - Real or Fake Text?: Investigating Human Ability to Detect Boundaries
Between Human-Written and Machine-Generated Text [23.622347443796183]
我々は、テキストが人間の書き起こしから始まり、最先端のニューラルネットワークモデルによって生成されるようになる、より現実的な状況について研究する。
この課題でアノテータはしばしば苦労するが、アノテータのスキルにはかなりのばらつきがあり、適切なインセンティブが与えられると、アノテータは時間とともに改善できることを示す。
論文 参考訳(メタデータ) (2022-12-24T06:40:25Z) - Naturalistic Causal Probing for Morpho-Syntax [76.83735391276547]
スペインにおける実世界のデータに対する入力レベルの介入に対する自然主義的戦略を提案する。
提案手法を用いて,共同設立者から文章中の形態・症状の特徴を抽出する。
本研究では,事前学習したモデルから抽出した文脈化表現に対する性別と数字の因果効果を解析するために,本手法を適用した。
論文 参考訳(メタデータ) (2022-05-14T11:47:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。