論文の概要: Unmediated AI-Assisted Scholarly Citations
- arxiv url: http://arxiv.org/abs/2602.01686v1
- Date: Mon, 02 Feb 2026 05:56:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.940233
- Title: Unmediated AI-Assisted Scholarly Citations
- Title(参考訳): 非介在型AI支援学習支援システム
- Authors: Stefan Szeider,
- Abstract要約: 本稿では,チャットボットの自然言語インタフェースと直接データベースアクセスの精度を組み合わせたアーキテクチャアプローチを提案する。
重要なアーキテクチャ原則は、最終的なデータエクスポート中に言語モデルをバイパスする:エントリは権威のあるソースから直接取得される。
このシステムは、フォームベースのサービスを、学術的整合性を維持する会話アシスタントに変換する。
- 参考スコア(独自算出の注目度): 27.126691338850254
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Traditional bibliography databases require users to navigate search forms and manually copy citation data. Language models offer an alternative: a natural-language interface where researchers write text with informal citation fragments, which are automatically resolved to proper references. However, language models are not reliable for scholarly work as they generate fabricated (hallucinated) citations at substantial rates. We present an architectural approach that combines the natural-language interface of LLM chatbots with the accuracy of direct database access, implemented through the Model Context Protocol. Our system enables language models to search bibliographic databases, perform fuzzy matching, and export verified entries, all through conversational interaction. A key architectural principle bypasses the language model during final data export: entries are fetched directly from authoritative sources, with timeout protection, to guarantee accuracy. We demonstrate this approach with MCP-DBLP, a server providing access to the DBLP computer science bibliography. The system transforms form-based bibliographic services into conversational assistants that maintain scholarly integrity. This architecture is adaptable to other bibliographic databases and academic data sources.
- Abstract(参考訳): 従来の書誌データベースでは、ユーザーは検索フォームをナビゲートし、引用データを手動でコピーする必要がある。
自然言語インタフェースでは、研究者が非公式な引用フラグメントを持つテキストを記述し、適切な参照に自動的に解決する。
しかし、言語モデルは、製造された(ハロゲン化された)引用をかなりの速度で生成するため、学術的な研究には信頼性がない。
本稿では,LLMチャットボットの自然言語インタフェースと,モデルコンテキストプロトコルによって実装された直接データベースアクセスの精度を組み合わせたアーキテクチャアプローチを提案する。
本システムでは,書誌データベースの検索,ファジィマッチング,検証済みエントリのエクスポートを行うことができる。
最終的なデータエクスポートの間、重要なアーキテクチャ原則は言語モデルをバイパスする:エントリは信頼できるソースから直接取得され、タイムアウト保護によって正確性を保証する。
我々は,DBLPコンピュータ科学書誌へのアクセスを提供するサーバであるMPP-DBLPを用いて,このアプローチを実証する。
このシステムは、形式に基づく書誌サービスから、学術的整合性を維持する会話アシスタントへと変換する。
このアーキテクチャは他の書誌データベースや学術データソースにも適用可能である。
関連論文リスト
- Cite Pretrain: Retrieval-Free Knowledge Attribution for Large Language Models [44.31597857713689]
最初の段階でActive Indexingを導入し、一般化可能なソースアンコールバインディングを作成します。
Qwen-2.5-7B&3Bの実験は、アクティブインデックスがパッシブインデックスのベースラインを一貫して上回っていることを示している。
内部の引用は、モデルを検索ノイズに対してより堅牢にすることで、外部の引用を補完する。
論文 参考訳(メタデータ) (2025-06-21T04:48:05Z) - From Isolates to Families: Using Neural Networks for Automated Language Affiliation [9.182884165239996]
歴史的言語学では、言語を共通の言語族に関連付けることは、伝統的に複雑なワークフローを用いて行われる。
多言語ワードリストと文法言語構造の大規模に標準化されたコレクションは、これを改善し、自動言語アフィリエイトを開発するための新たな道を開くのに役立つだろう。
本研究では,1000言語以上の言語から得られた語彙データと文法データを用いて,個々の言語を家族に分類するニューラルネットワークモデルを提案する。
論文 参考訳(メタデータ) (2025-02-17T11:25:32Z) - Less is More: Making Smaller Language Models Competent Subgraph Retrievers for Multi-hop KGQA [51.3033125256716]
本研究では,小言語モデルで処理される条件生成タスクとして,サブグラフ検索タスクをモデル化する。
2億2千万のパラメータからなる基本生成部分グラフ検索モデルでは,最先端モデルと比較して競合検索性能が向上した。
LLMリーダを接続した最大の3Bモデルは、WebQSPとCWQベンチマークの両方で、SOTAのエンドツーエンドパフォーマンスを新たに設定します。
論文 参考訳(メタデータ) (2024-10-08T15:22:36Z) - FLIP: Fine-grained Alignment between ID-based Models and Pretrained Language Models for CTR Prediction [49.510163437116645]
クリックスルーレート(CTR)予測は、パーソナライズされたオンラインサービスにおいてコア機能モジュールとして機能する。
CTR予測のための従来のIDベースのモデルは、表形式の1ホットエンコードされたID特徴を入力として取る。
事前訓練された言語モデル(PLM)は、テキストのモダリティの文を入力として取る別のパラダイムを生み出した。
本稿では,CTR予測のためのIDベースモデルと事前学習言語モデル(FLIP)間の細粒度特徴レベルのアライメントを提案する。
論文 参考訳(メタデータ) (2023-10-30T11:25:03Z) - Detecting Text Formality: A Study of Text Classification Approaches [78.11745751651708]
本研究は,統計的,ニューラルベース,トランスフォーマーベースの機械学習手法に基づく形式性検出手法の体系的研究を初めて行う。
単言語,多言語,言語横断の3種類の実験を行った。
本研究は,モノリンガルおよび多言語形式分類タスクのためのトランスフォーマーベースモデルに対するChar BiLSTMモデルの克服を示す。
論文 参考訳(メタデータ) (2022-04-19T16:23:07Z) - Demo of the Linguistic Field Data Management and Analysis System -- LiFE [1.2139158398361864]
LiFEは、オープンソースのWebベースの言語データ管理および分析アプリケーションである。
ユーザーは語彙項目、文、段落、オーディオ・ビジュアルコンテンツ、リッチ・グロス/アノテーションを保存できる。
対話的で印刷された辞書を生成し、自然言語処理ツールやモデルを訓練し、使用する。
論文 参考訳(メタデータ) (2022-03-22T03:34:10Z) - Librarian-in-the-Loop: A Natural Language Processing Paradigm for
Detecting Informal Mentions of Research Data in Academic Literature [1.4190701053683017]
本研究では,研究データセットに対する非公式な言及を識別するヒューマンタスクを支援する自然言語処理パラダイムを提案する。
非公式なデータ発見の作業は現在、大学間政治社会研究コンソーシアム (Inter-University Consortium for Political and Social Research) の図書館員とそのスタッフによって行われている。
論文 参考訳(メタデータ) (2022-03-10T02:11:30Z) - Open Domain Question Answering over Virtual Documents: A Unified
Approach for Data and Text [62.489652395307914]
我々は、知識集約型アプリケーションのための構造化知識を符号化する手段として、Data-to-text法、すなわち、オープンドメイン質問応答(QA)を用いる。
具体的には、ウィキペディアとウィキソースの3つのテーブルを付加知識源として使用する、データとテキスト上でのオープンドメインQAのための冗長化-レトリバー・リーダー・フレームワークを提案する。
UDT-QA(Unified Data and Text QA)は,知識インデックスの拡大を効果的に活用できることを示す。
論文 参考訳(メタデータ) (2021-10-16T00:11:21Z) - Assessing the quality of sources in Wikidata across languages: a hybrid
approach [64.05097584373979]
いくつかの言語でラベルを持つWikidataのトリプルからサンプルした参照コーパスの大規模なコーパスを評価するために,一連のマイクロタスク実験を実施している。
クラウドソースアセスメントの統合されたバージョンを使用して、いくつかの機械学習モデルをトレーニングして、Wikidata全体の分析をスケールアップしています。
この結果はWikidataにおける参照の質の確認に役立ち、ユーザ生成多言語構造化データの品質をWeb上で定義し、取得する際の共通の課題を特定するのに役立ちます。
論文 参考訳(メタデータ) (2021-09-20T10:06:46Z) - Towards a Natural Language Query Processing System [0.0]
本稿では,自然言語クエリインタフェースとバックエンド関係データベースの設計と開発について報告する。
この研究の斬新さは、自然言語クエリを構造化クエリ言語に変換するために必要なメタデータを格納するために、グラフデータベースを中間層として定義することにある。
サンプルクエリの翻訳結果は90%の精度で得られた。
論文 参考訳(メタデータ) (2020-09-25T19:52:20Z) - Efficient Deployment of Conversational Natural Language Interfaces over
Databases [45.52672694140881]
本稿では、自然言語からクエリ言語への機械学習モデルを開発するためのトレーニングデータセット収集を高速化する新しい手法を提案する。
本システムでは,対話セッションを定義した対話型多言語データを生成することができる。
論文 参考訳(メタデータ) (2020-05-31T19:16:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。