論文の概要: RegCheck: A tool for automating comparisons between study registrations and papers
- arxiv url: http://arxiv.org/abs/2601.13330v1
- Date: Mon, 19 Jan 2026 19:10:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:23.0298
- Title: RegCheck: A tool for automating comparisons between study registrations and papers
- Title(参考訳): RegCheck: 研究登録と論文の比較を自動化するツール
- Authors: Jamie Cummins, Beth Clarke, Ian Hussey, Malte Elson,
- Abstract要約: 我々は、研究者、レビュアー、編集者が研究登録を対応する論文と比較するのを助けるツールであるRegCheckを紹介する。
RegCheckは、(i)ユーザーがどの機能を比較すべきかを判断し、(ii)最も関連性の高いテキストを提示することを保証することで、人間の専門知識と判断をループに維持する。
RegCheckは独自のRegCheck IDを持つ共有可能なレポートも生成する。
- 参考スコア(独自算出の注目度): 1.8665975431697432
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Across the social and medical sciences, researchers recognize that specifying planned research activities (i.e., 'registration') prior to the commencement of research has benefits for both the transparency and rigour of science. Despite this, evidence suggests that study registrations frequently go unexamined, minimizing their effectiveness. In a way this is no surprise: manually checking registrations against papers is labour- and time-intensive, requiring careful reading across formats and expertise across domains. The advent of AI unlocks new possibilities in facilitating this activity. We present RegCheck, a modular LLM-assisted tool designed to help researchers, reviewers, and editors from across scientific disciplines compare study registrations with their corresponding papers. Importantly, RegCheck keeps human expertise and judgement in the loop by (i) ensuring that users are the ones who determine which features should be compared, and (ii) presenting the most relevant text associated with each feature to the user, facilitating (rather than replacing) human discrepancy judgements. RegCheck also generates shareable reports with unique RegCheck IDs, enabling them to be easily shared and verified by other users. RegCheck is designed to be adaptable across scientific domains, as well as registration and publication formats. In this paper we provide an overview of the motivation, workflow, and design principles of RegCheck, and we discuss its potential as an extensible infrastructure for reproducible science with an example use case.
- Abstract(参考訳): 社会科学、医学科学全般において、研究開始前に計画された研究活動(すなわち「登録」)を特定することは、科学の透明性と厳密さの両方に利益をもたらすと研究者は認識している。
それにもかかわらず、研究の登録がしばしば検討されず、その効果を最小化する証拠が示唆されている。
書類に対して手動で登録をチェックすることは、労働力と時間集約であり、ドメイン全体にわたるフォーマットや専門知識を慎重に読む必要がある。
AIの出現は、この活動を促進する新しい可能性を開く。
学術分野の研究者、レビュアー、編集者が研究登録を対応する論文と比較するのに役立つモジュール式LCM支援ツールであるRegCheckを提示する。
重要なことは、RegCheckは人間の専門知識と判断をループで維持する
一 利用者がどの機能を比較すべきかを判断し、かつ確実にすること
二 特徴に関連付けられた最も関連性の高いテキストをユーザに提示し、人間の不一致判断を(置き換えるよりむしろ)容易にする。
RegCheckは独自のRegCheck IDを持つ共有可能なレポートも生成する。
RegCheckは、科学分野だけでなく、登録や公開フォーマットにも適応できるように設計されている。
本稿では、RegCheckのモチベーション、ワークフロー、設計原則の概要を述べるとともに、再現可能な科学のための拡張可能な基盤としての可能性について、一例を挙げて論じる。
関連論文リスト
- Automatic Reviewers Fail to Detect Faulty Reasoning in Research Papers: A New Counterfactual Evaluation Framework [55.078301794183496]
我々は、高品質なピアレビューを支えるコアレビュースキル、すなわち欠陥のある研究ロジックの検出に注力する。
これは、論文の結果、解釈、クレームの間の内部の一貫性を評価することを含む。
本稿では,このスキルを制御条件下で分離し,テストする,完全自動対物評価フレームワークを提案する。
論文 参考訳(メタデータ) (2025-08-29T08:48:00Z) - Reflective Paper-to-Code Reproduction Enabled by Fine-Grained Verification [46.845133190560375]
複雑なコードを効率的にデバッグするために、人間が体系的なチェックリストを使う方法に触発されて、textbfReflective Paper-to-Code textbfReproductionフレームワークである textbfReProを提案する。
紙の指紋を自動的に抽出し、高品質な監視信号として機能する、正確で原子的な基準の包括的なセットを参照する。
ベースラインよりも13.0%のパフォーマンスギャップを達成し、反射の複雑な論理的および数学的基準を正しく修正する。
論文 参考訳(メタデータ) (2025-08-21T06:57:44Z) - Can LLMs Automate Fact-Checking Article Writing? [69.90165567819656]
我々は、一般的なファクトチェックパイプラインを拡張し、フルファクトチェック記事の自動生成の必要性を論じる。
我々は,人間のファクトチェッカーの筆記ワークフローを模倣した LLM ベースのエージェントフレームワーク QRAFT を開発した。
論文 参考訳(メタデータ) (2025-03-22T07:56:50Z) - Usefulness of LLMs as an Author Checklist Assistant for Scientific Papers: NeurIPS'24 Experiment [59.09144776166979]
大規模言語モデル(LLM)は、科学的ピアレビューを支援する上で有望だが議論の余地のあるツールである。
本研究は,論文提出を提出基準に適合させるツールとして,会議環境におけるLCMの有用性を評価する。
論文 参考訳(メタデータ) (2024-11-05T18:58:00Z) - ConfReady: A RAG based Assistant and Dataset for Conference Checklist Responses [5.170485483791494]
ARR Responsible NLP Research checklist Webサイトは、"チェックリストは責任ある研究のためにベストプラクティスを促進するように設計されている"と述べている。
我々はConfReadyを紹介した。これは検索拡張世代(RAG)アプリケーションで、著者が自分の仕事を振り返り、会議チェックリストで著者を支援するのに使用できる。
チェックリストアシスタントを評価するために、1,975個のACLチェックリスト応答のデータセットをキュレートし、人間の回答の問題を解析し、評価サブセットに基づいてRAGとLarge Language Model(LM)をベンチマークする。
論文 参考訳(メタデータ) (2024-08-07T21:07:13Z) - XAudit : A Theoretical Look at Auditing with Explanations [29.55309950026882]
この研究は、監査における説明の役割を形式化し、モデル説明が監査に役立つかどうかを調査する。
具体的には、線形分類器と決定木を検査し、特徴感度を評価するための説明に基づくアルゴリズムを提案する。
以上の結果から,非現実的説明は監査に極めて有用であることが示唆された。
論文 参考訳(メタデータ) (2022-06-09T19:19:58Z) - CAR-Net: Unsupervised Co-Attention Guided Registration Network for Joint
Registration and Structure Learning [73.03885837923599]
我々は,新しい深層学習ネットワークCAR-Net(Co-Attention Guided Registration Network)を提案する。
CAR-Netはコアテンションブロックを用いて入力の新しい表現を学習し、固定画像と移動画像の登録を駆動する。
イギリスバイオバンクの心臓磁気共鳴画像データを用いた実験により、CAR-Netは最先端の教師なし登録法よりも高い登録精度とスムーズな変形場が得られることが示された。
論文 参考訳(メタデータ) (2021-06-11T23:25:49Z) - An Explanatory Query-Based Framework for Exploring Academic Expertise [10.887008988767061]
機関内の潜在的な協力者を見つけることは、偏見を伴う手動検索作業に時間を要する。
本研究では,研究専門知識の検索,評価,探索を行う新しいクエリベースのフレームワークを提案する。
提案手法は, 望ましい特性を満足し, 効率的であると同時に, 一致の同定に有効であることを示す。
論文 参考訳(メタデータ) (2021-05-28T10:48:08Z) - Open Source Software for Efficient and Transparent Reviews [0.11179881480027788]
ASReviewはオープンソースの機械学習支援パイプラインで、アクティブラーニングを適用している。
シミュレーションにより,ASReviewは手作業によるレビューよりもはるかに効率的なレビューを実現することができることを示す。
論文 参考訳(メタデータ) (2020-06-22T11:57:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。