論文の概要: BibAgent: An Agentic Framework for Traceable Miscitation Detection in Scientific Literature
- arxiv url: http://arxiv.org/abs/2601.16993v1
- Date: Mon, 12 Jan 2026 16:30:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-02 02:21:38.467263
- Title: BibAgent: An Agentic Framework for Traceable Miscitation Detection in Scientific Literature
- Title(参考訳): BibAgent: 科学的文献におけるトレーサブルな誤読検出のためのエージェントフレームワーク
- Authors: Peiran Li, Fangzhou Lin, Shuo Xing, Xiang Zheng, Xi Hong, Jiashuo Sun, Zhengzhong Tu, Chaoqun Ni,
- Abstract要約: BibAgentは、自動引用検証のためのスケーラブルでエンドツーエンドのエージェントフレームワークである。
検索、推論、アダプティブ・エビデンス・アグリゲーションを統合し、アクセス可能で有料のソースに戦略を適用する。
以上の結果から,BibAgentは引用精度と解釈可能性において,最先端のLarge Language Model(LLM)のベースラインよりも優れていた。
- 参考スコア(独自算出の注目度): 21.872874595027824
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Citations are the bedrock of scientific authority, yet their integrity is compromised by widespread miscitations: ranging from nuanced distortions to fabricated references. Systematic citation verification is currently unfeasible; manual review cannot scale to modern publishing volumes, while existing automated tools are restricted by abstract-only analysis or small-scale, domain-specific datasets in part due to the "paywall barrier" of full-text access. We introduce BibAgent, a scalable, end-to-end agentic framework for automated citation verification. BibAgent integrates retrieval, reasoning, and adaptive evidence aggregation, applying distinct strategies for accessible and paywalled sources. For paywalled references, it leverages a novel Evidence Committee mechanism that infers citation validity via downstream citation consensus. To support systematic evaluation, we contribute a 5-category Miscitation Taxonomy and MisciteBench, a massive cross-disciplinary benchmark comprising 6,350 miscitation samples spanning 254 fields. Our results demonstrate that BibAgent outperforms state-of-the-art Large Language Model (LLM) baselines in citation verification accuracy and interpretability, providing scalable, transparent detection of citation misalignments across the scientific literature.
- Abstract(参考訳): サイテーションは科学的権威の基盤であるが、その完全性は、曖昧な歪みから製造された参照まで、広範囲にわたる誤解によって損なわれている。
現在、体系的な引用検証は不可能であり、手動によるレビューは現代の出版物にスケールできないが、既存の自動化ツールは抽象的な分析や、一部がフルテキストアクセスの「ペイウォールバリア」のため、小規模のドメイン固有のデータセットによって制限されている。
自動引用検証のためのスケーラブルでエンドツーエンドのエージェントフレームワークであるBibAgentを紹介する。
BibAgentは検索、推論、アダプティブエビデンスアグリゲーションを統合し、アクセス可能で有料のソースに対して異なる戦略を適用する。
ペイウォールドリファレンスでは、下流の引用コンセンサスを通じて引用妥当性を推測する新しいエビデンス委員会機構を利用する。
系統的な評価を支援するため,5カテゴリーの誤読分類と,254分野にまたがる6,350件の誤読サンプルからなる大規模な学際ベンチマークであるMisciteBenchを提出した。
以上の結果から,BibAgent は引用精度と解釈可能性において最先端のLarge Language Model (LLM) ベースラインより優れており,科学的文献全体にわたる引用ミスアライメントのスケーラブルかつ透過的な検出が可能であることが示唆された。
関連論文リスト
- OpenNovelty: An LLM-powered Agentic System for Verifiable Scholarly Novelty Assessment [63.662126457336534]
OpenNoveltyは、透明で証拠に基づく新規性分析のためのエージェントシステムである。
回収された実論文のすべての評価を根拠にし、検証可能な判断を確実にする。
OpenNoveltyは、公正で一貫性があり、エビデンスに支えられたピアレビューを促進するスケーラブルなツールで、研究コミュニティに力を与えることを目指している。
論文 参考訳(メタデータ) (2026-01-04T15:48:51Z) - Explainable and Fine-Grained Safeguarding of LLM Multi-Agent Systems via Bi-Level Graph Anomaly Detection [76.91230292971115]
大規模言語モデル (LLM) に基づくマルチエージェントシステム (MAS) は複雑なタスクを解く上で強力な能力を示している。
XG-Guardは、MAS内の悪意のあるエージェントを検出するための、説明可能な、きめ細かい保護フレームワークである。
論文 参考訳(メタデータ) (2025-12-21T13:46:36Z) - SemanticCite: Citation Verification with AI-Powered Full-Text Analysis and Evidence-Based Reasoning [0.0]
本稿では,全文ソース解析による引用精度の検証を行うAIシステムであるSemanticCiteを紹介する。
提案手法は,複数の検索手法と,ニュアンスド・クレーム・ソース関係を抽出する4クラス分類システムを組み合わせたものである。
我々は、詳細なアライメント、機能分類、セマンティックアノテーション、およびバイオロメトリメタデータを備えた1000以上の引用からなる包括的なデータセットをコントリビュートする。
論文 参考訳(メタデータ) (2025-11-20T10:05:21Z) - HySemRAG: A Hybrid Semantic Retrieval-Augmented Generation Framework for Automated Literature Synthesis and Methodological Gap Analysis [55.2480439325792]
HySemRAGは、Extract, Transform, Load (ETL)パイプラインとRetrieval-Augmented Generation (RAG)を組み合わせたフレームワークである。
システムは、マルチ層アプローチを通じて既存のRAGアーキテクチャの制限に対処する。
論文 参考訳(メタデータ) (2025-08-01T20:30:42Z) - Towards Fine-Grained Citation Evaluation in Generated Text: A Comparative Analysis of Faithfulness Metrics [22.041561519672456]
大型言語モデル(LLM)は、しばしば「幻覚」として知られる、サポートされていない、または検証できないコンテンツを生成している。
本稿では,3段階のサポートレベル間での引用を識別する上で,メトリクスの有効性を評価するための比較評価フレームワークを提案する。
以上の結果から,全ての評価において一貫した指標が得られず,きめ細かな支援評価の複雑さが明らかとなった。
論文 参考訳(メタデータ) (2024-06-21T15:57:24Z) - ALiiCE: Evaluating Positional Fine-grained Citation Generation [54.19617927314975]
本稿では,微細な引用生成のための最初の自動評価フレームワークであるALiiCEを提案する。
我々のフレームワークはまず、文のクレームを依存性分析によって原子クレームに解析し、次に原子クレームレベルでの引用品質を計算する。
複数大言語モデルの2つの長文QAデータセット上での位置的きめ細かな引用生成性能を評価する。
論文 参考訳(メタデータ) (2024-06-19T09:16:14Z) - Deep Graph Learning for Anomalous Citation Detection [55.81334139806342]
本稿では,新たな深層グラフ学習モデルであるGLAD(Graph Learning for Anomaly Detection)を提案する。
GLADフレームワーク内ではCPU(Citation PUrpose)と呼ばれるアルゴリズムが提案され,引用テキストに基づく引用の目的が明らかになった。
論文 参考訳(メタデータ) (2022-02-23T09:05:28Z) - Deep forecasting of translational impact in medical research [1.8130872753848115]
我々は,多スケールパブリッシュデータの表現的および識別的数学的モデルスイートを開発する。
我々は、引用は、特許、ガイドライン、政策文書に含めることにより判断される翻訳効果の適度な予測のみであることを示す。
我々は、従来の引用に基づく手法よりも、コンテンツに基づく影響モデルの方がパフォーマンスに優れていると論じる。
論文 参考訳(メタデータ) (2021-10-17T19:29:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。