論文の概要: The 17% Gap: Quantifying Epistemic Decay in AI-Assisted Survey Papers
- arxiv url: http://arxiv.org/abs/2601.17431v1
- Date: Sat, 24 Jan 2026 12:00:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:07.730509
- Title: The 17% Gap: Quantifying Epistemic Decay in AI-Assisted Survey Papers
- Title(参考訳): 17%のギャップ:AIによる調査論文における疫学の衰退の定量化
- Authors: H. Kemal İlter,
- Abstract要約: 『廃紙』は既知の人工物であるが、有効な引用鎖の系統的な劣化はいまだに不明である。
我々は,2024年9月から2026年1月までに発行された人工知能に関する50の最近の調査論文の法医学的な監査を行った。
我々は、攻撃的な法医学的回復にもかかわらず、いかなるデジタルオブジェクトにも解決できない、永続的な17.0%のファントムレートを検出する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The adoption of Large Language Models (LLMs) in scientific writing promises efficiency but risks introducing informational entropy. While "hallucinated papers" are a known artifact, the systematic degradation of valid citation chains remains unquantified. We conducted a forensic audit of 50 recent survey papers in Artificial Intelligence (N=5,514 citations) published between September 2024 and January 2026. We utilized a hybrid verification pipeline combining DOI resolution, Crossref metadata analysis, Semantic Scholar queries, and fuzzy text matching to distinguish between formatting errors ("Sloppiness") and verifiable non-existence ("Phantoms). We detect a persistent 17.0% Phantom Rate -- citations that cannot be resolved to any digital object despite aggressive forensic recovery. Diagnostic categorization reveals three distinct failure modes: pure hallucinations (5.1%), hallucinated identifiers with valid titles (16.4%), and parsing-induced matching failures (78.5%). Longitudinal analysis reveals a flat trend (+0.07 pp/month), suggesting that high-entropy citation practices have stabilized as an endemic feature of the field. The scientific citation graph in AI survey literature exhibits "link rot" at scale. This suggests a mechanism where AI tools act as "lazy research assistants," retrieving correct titles but hallucinating metadata, thereby severing the digital chain of custody required for reproducible science.
- Abstract(参考訳): 科学書記におけるLarge Language Models (LLM) の採用は効率を約束するが、情報エントロピーを導入するリスクがある。
幻覚紙」は既知の人工物であるが、有効な引用鎖の体系的な劣化はいまだに不明である。
2024年9月から2026年1月までに50件の人工知能調査(N=5,514引用)を行った。
我々は、DOI解像度、クロスリーフメタデータ分析、セマンティックスカラークエリ、ファジィテキストマッチングを組み合わせたハイブリッド検証パイプラインを利用して、フォーマットエラー("Sloppiness")と検証可能な非存在("Phantoms")を区別した。我々は永続的な17.0%のファントムレート("Phantoms")を検出する。診断分類は、純粋な幻覚(5.1%)、有効なタイトルを持つ幻覚的識別子(16.4%)、パーシングによって引き起こされるマッチング障害(78.5%)の3つの障害モードを明らかにする。縦断解析は、フラットな傾向(+0.07 pp/月)を示し、高エトロピー的引用が科学的な分野の終わりとして安定化されていることを示唆する。この調査では、AIの「インフォメーション・インフォメーション・インフォメーション」の「インフォメーション・インフォメーション・インフォメーション・インフォメーション・インフォメーション」の「インフォメーション・インフォメーション・インフォメーション」が提案されている。
関連論文リスト
- SIN-Bench: Tracing Native Evidence Chains in Long-Context Multimodal Scientific Interleaved Literature [92.88058660627678]
FITO(Fish-in-the-Ocean)パラダイムは、科学文書の中に明確なクロスモーダルなエビデンスチェーンを構築するモデルを必要とする。
我々は、証拠発見(SIN-Find)、仮説検証(SIN-Verify)、接地QA(SIN-QA)、エビデンスアンコレッド合成(SIN-Summary)の4つのプログレッシブなタスクでSIN-Benchを構築する。
検証可能なアンカーに基づき、マッチング、関連性、論理による証拠品質の診断を行う際に、予測値を評価する「No Evidence, No Score」を導入する。
論文 参考訳(メタデータ) (2026-01-15T06:25:25Z) - Causal-Enhanced AI Agents for Medical Research Screening [0.0]
体系的なレビューはエビデンスベースの医療には不可欠だが、150万以上の年次出版物を手作業でレビューすることは不可能である。
本稿では,因果推論と二段階知識グラフを組み合わせた因果グラフ強化検索生成システムを提案する。
提案手法では,すべての因果クレームが検索された文献に辿り着くエビデンスファーストプロトコルを適用し,介入-アウトカム経路を可視化する有向非巡回グラフを自動的に生成する。
論文 参考訳(メタデータ) (2026-01-06T08:41:16Z) - The Semantic Illusion: Certified Limits of Embedding-Based Hallucination Detection in RAG Systems [0.0]
幻覚予測をRAG検出に適用し、スコアを有限サンプルカバレッジ保証付き決定セットに変換する。
分布尾レンズを用いてこの障害を分析し,NLIモデルが許容可能なAUC(0.81)を達成する一方で,「最も厳しい」幻覚は,忠実な応答と意味的に区別できないことを示した。
論文 参考訳(メタデータ) (2025-12-17T04:22:28Z) - THE-Tree: Can Tracing Historical Evolution Enhance Scientific Verification and Reasoning? [16.91455372359864]
textbfTechnology textbfHistory textbfEvolution Treeは,これらの領域固有の進化木を科学文献から構築する計算フレームワークである。
論文 参考訳(メタデータ) (2025-06-26T20:44:51Z) - Hallucination-Free? Assessing the Reliability of Leading AI Legal Research Tools [32.78336381381673]
本稿では,AI駆動型法律研究ツールの事前登録による実証評価について報告する。
LexisNexis(Lexis+ AI)とThomson Reuters(Westlaw AI-Assisted ResearchとAsk Practical Law AI)によるAI研究ツールは、それぞれ17%から33%の時間で幻覚化している。
それは、AIのアウトプットを監督し検証する法的専門家の責任を知らせる証拠を提供する。
論文 参考訳(メタデータ) (2024-05-30T17:56:05Z) - Fine-grained Hallucination Detection and Editing for Language Models [109.56911670376932]
大規模言語モデル(LM)は、しばしば幻覚と呼ばれる事実的誤りを引き起こす傾向にある。
我々は,幻覚の包括的分類を導入し,幻覚が多様な形態で現れることを議論する。
本稿では, 幻覚自動検出のための新しいタスクを提案し, 新たな評価ベンチマークであるFavaBenchを構築した。
論文 参考訳(メタデータ) (2024-01-12T19:02:48Z) - AI Hallucinations: A Misnomer Worth Clarifying [4.880243880711163]
我々は,すべてのデータベースで得られた定義を提示,分析し,それらのアプリケーションに基づいて分類し,各カテゴリのキーポイントを抽出する。
この結果は、この用語の使われ方における一貫性の欠如を浮き彫りにし、文献におけるいくつかの代替用語の特定にも役立ちます。
論文 参考訳(メタデータ) (2024-01-09T01:49:41Z) - A Stitch in Time Saves Nine: Detecting and Mitigating Hallucinations of
LLMs by Validating Low-Confidence Generation [76.34411067299331]
大規模な言語モデルは、しばしば信頼性を著しく損なう「ハロシン化」する傾向がある。
生成過程における幻覚を積極的に検出・緩和する手法を提案する。
提案手法は, GPT-3.5モデルの幻覚を平均47.5%から14.5%に低減する。
論文 参考訳(メタデータ) (2023-07-08T14:25:57Z) - Don't Say What You Don't Know: Improving the Consistency of Abstractive
Summarization by Constraining Beam Search [54.286450484332505]
本研究は,幻覚とトレーニングデータの関連性を解析し,学習対象の要約を学習した結果,モデルが幻覚を呈する証拠を見出した。
本稿では,ビーム探索を制約して幻覚を回避し,変換器をベースとした抽象要約器の整合性を向上させる新しい復号法であるPINOCCHIOを提案する。
論文 参考訳(メタデータ) (2022-03-16T07:13:52Z) - Deep Graph Learning for Anomalous Citation Detection [55.81334139806342]
本稿では,新たな深層グラフ学習モデルであるGLAD(Graph Learning for Anomaly Detection)を提案する。
GLADフレームワーク内ではCPU(Citation PUrpose)と呼ばれるアルゴリズムが提案され,引用テキストに基づく引用の目的が明らかになった。
論文 参考訳(メタデータ) (2022-02-23T09:05:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。