論文の概要: CASIMIR: A Corpus of Scientific Articles enhanced with Multiple
Author-Integrated Revisions
- arxiv url: http://arxiv.org/abs/2403.00241v1
- Date: Fri, 1 Mar 2024 03:07:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-05 18:25:14.097454
- Title: CASIMIR: A Corpus of Scientific Articles enhanced with Multiple
Author-Integrated Revisions
- Title(参考訳): CASIMIR:複数著者による改訂による科学論文のコーパス
- Authors: Leane Jourdan, Florian Boudin, Nicolas Hernandez, Richard Dufour
- Abstract要約: 本稿では,学術論文の執筆過程の改訂段階について,原文資料を提案する。
この新しいデータセットはCASIMIRと呼ばれ、OpenReviewの15,646の科学論文の改訂版とピアレビューを含んでいる。
- 参考スコア(独自算出の注目度): 8.050416164183485
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Writing a scientific article is a challenging task as it is a highly codified
and specific genre, consequently proficiency in written communication is
essential for effectively conveying research findings and ideas. In this
article, we propose an original textual resource on the revision step of the
writing process of scientific articles. This new dataset, called CASIMIR,
contains the multiple revised versions of 15,646 scientific articles from
OpenReview, along with their peer reviews. Pairs of consecutive versions of an
article are aligned at sentence-level while keeping paragraph location
information as metadata for supporting future revision studies at the discourse
level. Each pair of revised sentences is enriched with automatically extracted
edits and associated revision intention. To assess the initial quality on the
dataset, we conducted a qualitative study of several state-of-the-art text
revision approaches and compared various evaluation metrics. Our experiments
led us to question the relevance of the current evaluation methods for the text
revision task.
- Abstract(参考訳): 科学的論文を書くことは、高度に体系化された特定のジャンルであるため、研究成果やアイデアを効果的に伝達するためには、文章によるコミュニケーションの熟練が不可欠である。
本稿では,学術論文の執筆過程の改訂段階における原文資源を提案する。
この新しいデータセットはCASIMIRと呼ばれ、OpenReviewの15,646の科学論文の改訂版とピアレビューを含んでいる。
談話レベルでの今後の改訂研究を支援するメタデータとして、段落位置情報を保持しつつ、記事の連続バージョンを文レベルで整列する。
各改訂文は、自動的に抽出された編集と関連する修正意図で濃縮される。
データセットの初期品質を評価するために,いくつかの最先端テキストリビジョン手法の質的研究を行い,様々な評価指標を比較した。
実験の結果,テキスト改訂作業における現在の評価手法の妥当性が疑問視された。
関連論文リスト
- A Literature Review of Literature Reviews in Pattern Analysis and
Machine Intelligence [62.90682521144006]
この分析は、様々な観点からPAMI分野のレビューを徹底的にレビューすることを目的としている。
書評を自動評価するために,大規模言語モデルを用いた書評指標を提案する。
新たに登場したAI生成の文献レビューも評価されている。
論文 参考訳(メタデータ) (2024-02-20T11:28:50Z) - ARIES: A Corpus of Scientific Paper Edits Made in Response to Peer
Reviews [19.68152108760845]
本稿では,このタスクを大規模言語モデルに適用し,レビューコメントと対応する論文編集のデータセットであるARIESをリリースする。
私たちは、モデルがコメントに対応する編集を識別するのに苦労していることに気付きました。
GPT-4は、しばしば表面レベルでコメントに対処することに成功したが、根底にある意図よりもフィードバックの言葉に固執する。
論文 参考訳(メタデータ) (2023-06-21T22:00:03Z) - To Revise or Not to Revise: Learning to Detect Improvable Claims for
Argumentative Writing Support [20.905660642919052]
特定の修正が必要な議論的クレームを特定するための主な課題について検討する。
本稿では,リビジョン距離に基づく新しいサンプリング戦略を提案する。
文脈情報とドメイン知識を用いることで、予測結果をさらに改善できることを示す。
論文 参考訳(メタデータ) (2023-05-26T10:19:54Z) - Scientific Opinion Summarization: Meta-review Generation with
Checklist-guided Iterative Introspection [61.99041542129813]
本稿では,論文レビューをメタレビューに合成する,科学的意見要約の課題を提案する。
39のカンファレンスから10,989のペーパーメタレビューと40,903のペーパーレビューをカバーする新しいORSUMデータセットを紹介した。
結論として,(1) 人書き要約はガイドラインに従わないものが多いため,必ずしも信頼できないものであって,(2) 課題分解と反復的自己調整の組み合わせは,有望な議論参加能力を示している。
論文 参考訳(メタデータ) (2023-05-24T02:33:35Z) - Artificial intelligence technologies to support research assessment: A
review [10.203602318836444]
この文献レビューは、記事のテキストから、より高いインパクトやより高い品質の研究に関連する指標を特定する。
論文やカンファレンス論文の引用数や品質スコアを予測するために機械学習技術を使用した研究が含まれている。
論文 参考訳(メタデータ) (2022-12-11T06:58:39Z) - Submission-Aware Reviewer Profiling for Reviewer Recommender System [26.382772998002523]
本稿では,潜在的レビュアーが出版する各要約から,研究対象のトピックと,そのトピックを研究対象とする明示的な文脈を学習する手法を提案する。
実験の結果,既存手法と比較して精度が向上した。
この新しいアプローチは、過去2年でトップレベルのカンファレンスで成功している。
論文 参考訳(メタデータ) (2022-11-08T12:18:02Z) - EditEval: An Instruction-Based Benchmark for Text Improvements [73.5918084416016]
編集機能の自動評価のためのインストラクションベース、ベンチマーク、評価スイートであるEditEvalを提示する。
InstructGPTとPEERが最良であることを示す事前学習モデルをいくつか評価するが,ほとんどのベースラインは教師付きSOTA以下である。
我々の分析は、タスクの編集によく使われるメトリクスが必ずしも相関しているとは限らないことを示し、最高の性能を持つプロンプトに対する最適化は、必ずしも異なるモデルに対して強い堅牢性を持つとは限らないことを示唆している。
論文 参考訳(メタデータ) (2022-09-27T12:26:05Z) - Towards Automated Document Revision: Grammatical Error Correction,
Fluency Edits, and Beyond [46.130399041820716]
ACLアンソロジーから採取した学術論文をプロの編集者が改訂する文書改訂コーパスTETRAを導入する。
TETRAの独特性を既存の文書修正コーパスと比較し、微妙な違いであっても、修正後の文書の品質を識別できることを実証する。
論文 参考訳(メタデータ) (2022-05-23T17:37:20Z) - Revise and Resubmit: An Intertextual Model of Text-based Collaboration
in Peer Review [52.359007622096684]
ピアレビューは、ほとんどの科学分野における出版プロセスの重要な要素である。
既存のNLP研究は個々のテキストの分析に重点を置いている。
編集補助は、しばしばテキストのペア間の相互作用をモデル化する必要がある。
論文 参考訳(メタデータ) (2022-04-22T16:39:38Z) - Hierarchical Bi-Directional Self-Attention Networks for Paper Review
Rating Recommendation [81.55533657694016]
本稿では,階層型双方向自己注意ネットワークフレームワーク(HabNet)を提案する。
具体的には、文エンコーダ(レベル1)、レビュー内エンコーダ(レベル2)、レビュー間エンコーダ(レベル3)の3つのレベルで、論文レビューの階層構造を利用する。
我々は、最終的な受理決定を行う上で有用な予測者を特定することができ、また、数値的なレビュー評価とレビュアーが伝えるテキストの感情の不整合を発見するのに役立てることができる。
論文 参考訳(メタデータ) (2020-11-02T08:07:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。