論文の概要: Compare: A Framework for Scientific Comparisons
- arxiv url: http://arxiv.org/abs/2509.06412v1
- Date: Mon, 08 Sep 2025 08:05:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:04.008585
- Title: Compare: A Framework for Scientific Comparisons
- Title(参考訳): 比較: 科学的比較のためのフレームワーク
- Authors: Moritz Staudinger, Wojciech Kusa, Matteo Cancellieri, David Pride, Petr Knoth, Allan Hanbury,
- Abstract要約: 科学的コントリビューションの高度な長文比較を可能にする新しいフレームワークであるComparceを実証する。
比較は、研究の重複や、機関と出版の粒度の相違について調査し分析することを可能にする。
従来のサイエントメトリックツールとは異なり、Compareは定性的で引用支援された比較を提供することによって、定量指標を超える。
- 参考スコア(独自算出の注目度): 7.1713300851206725
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Navigating the vast and rapidly increasing sea of academic publications to identify institutional synergies, benchmark research contributions and pinpoint key research contributions has become an increasingly daunting task, especially with the current exponential increase in new publications. Existing tools provide useful overviews or single-document insights, but none supports structured, qualitative comparisons across institutions or publications. To address this, we demonstrate Compare, a novel framework that tackles this challenge by enabling sophisticated long-context comparisons of scientific contributions. Compare empowers users to explore and analyze research overlaps and differences at both the institutional and publication granularity, all driven by user-defined questions and automatic retrieval over online resources. For this we leverage on Retrieval-Augmented Generation over evolving data sources to foster long context knowledge synthesis. Unlike traditional scientometric tools, Compare goes beyond quantitative indicators by providing qualitative, citation-supported comparisons.
- Abstract(参考訳): 学術出版物の巨大で急速に増加する海を旅して、機関のシナジー、ベンチマーク研究のコントリビューション、重要な研究コントリビューションなどを特定することは、特に新しい出版物の指数的な増加によって、ますます困難な課題となっている。
既存のツールは、有用な概要や単一ドキュメントの洞察を提供するが、組織や出版物間の構造化された質的な比較はサポートしていない。
そこで本研究では,科学的コントリビューションの長文比較を可能にすることによって,この課題に対処する新しいフレームワークであるComparceを実演する。
比較によって、ユーザーは研究の重複や、機関や出版物の粒度の相違を調べ、分析することができる。
このために、長いコンテキスト知識の合成を促進するために、データソースの進化よりもRetrieval-Augmented Generationを活用します。
従来のサイエントメトリックツールとは異なり、Compareは定性的で引用支援された比較を提供することによって、定量指標を超える。
関連論文リスト
- DeepSynth-Eval: Objectively Evaluating Information Consolidation in Deep Survey Writing [53.85037373860246]
本稿では,情報統合能力を客観的に評価するためのベンチマークであるDeep Synth-Evalを紹介する。
一般チェックリスト(実例)と制約チェックリスト(構造体)を用いたきめ細かい評価プロトコルを提案する。
その結果,エージェント型プラン・アンド・ライトは単ターン生成よりも大幅に優れていた。
論文 参考訳(メタデータ) (2026-01-07T03:07:52Z) - SciNetBench: A Relation-Aware Benchmark for Scientific Literature Retrieval Agents [12.057215000080705]
本稿では,文献検索エージェントのためのSciNetBenchを提案する。
本ベンチマークでは,新しい知識構造を持つ論文のエゴ中心検索,学術的関係のペアワイド同定,科学的進化的軌道のパスワイド再構築の3つのレベルを体系的に評価した。
関係認識検索タスクの精度は20%以下に低下することが多く、現在の検索パラダイムの中核的な欠点が浮かび上がっている。
論文 参考訳(メタデータ) (2025-12-16T02:53:02Z) - SciRAG: Adaptive, Citation-Aware, and Outline-Guided Retrieval and Synthesis for Scientific Literature [52.36039386997026]
我々は科学文献探索のためのオープンソースのフレームワークであるSciRAGを紹介する。
1) 逐次的証拠収集と並列的証拠収集を柔軟に交互に交互に行う適応的検索,(2) 引用グラフを利用して文書を整理・フィルタリングする引用型記号推論,(3) 整合性と透過的帰属性を確保するために回答を計画・批評・洗練するアウトライン誘導合成,である。
論文 参考訳(メタデータ) (2025-11-18T11:09:19Z) - Mapping the Evolution of Research Contributions using KnoVo [0.0]
KnoVoは、科学文献における研究ノベルティの進化を定量化し分析するために設計されたインテリジェントなフレームワークである。
論文の新規性は、その多層励起ネットワークにおける前処理と後処理の両方に対して決定される。
論文 参考訳(メタデータ) (2025-06-20T23:17:11Z) - Leveraging Large Language Models for Comparative Literature Summarization with Reflective Incremental Mechanisms [44.99833362998488]
ChatCiteは、比較文学要約を生成するために大きな言語モデル(LLM)を利用する新しい方法である。
注釈付き要約付き1000の研究論文からなるカスタムデータセットCompLit-LongContext上でChatCiteを評価する。
論文 参考訳(メタデータ) (2024-12-03T04:09:36Z) - A Literature Review of Literature Reviews in Pattern Analysis and Machine Intelligence [55.33653554387953]
パターン分析とマシンインテリジェンス(PAMI)は、情報の収集と断片化を目的とした多くの文献レビューにつながっている。
本稿では、PAMI分野におけるこれらの文献レビューの徹底的な分析について述べる。
1)PAMI文献レビューの構造的・統計的特徴は何か,(2)レビューの増大するコーパスを効率的にナビゲートするために研究者が活用できる戦略は何か,(3)AIが作成したレビューの利点と限界は人間によるレビューと比較するとどのようなものか,という3つの主要な研究課題に対処しようとする。
論文 参考訳(メタデータ) (2024-02-20T11:28:50Z) - Towards a Quality Indicator for Research Data publications and Research
Software publications -- A vision from the Helmholtz Association [0.24848203755267903]
研究データや研究ソフトウェアの品質を評価・評価するプロセスはまだ確立されていない。
Task Group Quality Indicators for Data and Software Publicationsは現在、研究データおよび研究ソフトウェア出版のための品質指標を開発している。
論文 参考訳(メタデータ) (2024-01-16T20:00:27Z) - Incremental hierarchical text clustering methods: a review [49.32130498861987]
本研究の目的は,階層的および漸進的クラスタリング技術の解析である。
本研究の主な貢献は、文書クラスタリングのテキスト化を目的とした、2010年から2018年にかけて出版された研究で使用されるテクニックの組織化と比較である。
論文 参考訳(メタデータ) (2023-12-12T22:27:29Z) - CiteBench: A benchmark for Scientific Citation Text Generation [69.37571393032026]
CiteBenchは引用テキスト生成のベンチマークである。
CiteBenchのコードはhttps://github.com/UKPLab/citebench.comで公開しています。
論文 参考訳(メタデータ) (2022-12-19T16:10:56Z) - Investigating Fairness Disparities in Peer Review: A Language Model
Enhanced Approach [77.61131357420201]
我々は、大規模言語モデル(LM)の助けを借りて、ピアレビューにおける公平性格差の徹底した厳密な研究を行う。
我々は、2017年から現在までのICLR(International Conference on Learning Representations)カンファレンスで、包括的なリレーショナルデータベースを収集、組み立て、維持しています。
我々は、著作者性別、地理、著作者、機関的名声など、興味のある複数の保護属性に対する公平性の違いを仮定し、研究する。
論文 参考訳(メタデータ) (2022-11-07T16:19:42Z) - CitationIE: Leveraging the Citation Graph for Scientific Information
Extraction [89.33938657493765]
引用論文と引用論文の参照リンクの引用グラフを使用する。
最先端技術に対するエンド・ツー・エンドの情報抽出の大幅な改善を観察する。
論文 参考訳(メタデータ) (2021-06-03T03:00:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。