論文の概要: Argument Mining Driven Analysis of Peer-Reviews
- arxiv url: http://arxiv.org/abs/2012.07743v1
- Date: Thu, 10 Dec 2020 16:06:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-15 13:14:45.875941
- Title: Argument Mining Driven Analysis of Peer-Reviews
- Title(参考訳): 論点マイニングによるピアレビューの分析
- Authors: Michael Fromm, Evgeniy Faerman, Max Berrendorf, Siddharth Bhargava,
Ruoxia Qi, Yao Zhang, Lukas Dennert, Sophia Selle, Yang Mao, Thomas Seidl
- Abstract要約: 本稿では,編集者,メタレビュアー,レビュアーの支援を目的としたArgument Miningに基づくアプローチを提案する。
以上の知見の1つは、ピアレビュープロセスで使われる引数が他のドメインの引数とは異なるため、事前学習されたモデルの転送が困難であるということです。
私たちは、注釈付き引数を持つさまざまなコンピュータサイエンス会議の新しいピアレビューデータセットをコミュニティに提供します。
- 参考スコア(独自算出の注目度): 4.552676857046446
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Peer reviewing is a central process in modern research and essential for
ensuring high quality and reliability of published work. At the same time, it
is a time-consuming process and increasing interest in emerging fields often
results in a high review workload, especially for senior researchers in this
area. How to cope with this problem is an open question and it is vividly
discussed across all major conferences. In this work, we propose an Argument
Mining based approach for the assistance of editors, meta-reviewers, and
reviewers. We demonstrate that the decision process in the field of scientific
publications is driven by arguments and automatic argument identification is
helpful in various use-cases. One of our findings is that arguments used in the
peer-review process differ from arguments in other domains making the transfer
of pre-trained models difficult. Therefore, we provide the community with a new
peer-review dataset from different computer science conferences with annotated
arguments. In our extensive empirical evaluation, we show that Argument Mining
can be used to efficiently extract the most relevant parts from reviews, which
are paramount for the publication decision. The process remains interpretable
since the extracted arguments can be highlighted in a review without detaching
them from their context.
- Abstract(参考訳): ピアレビューは現代の研究の中心的なプロセスであり、出版物の品質と信頼性を確保するのに不可欠である。
同時に、時間を要するプロセスであり、新興分野への関心が高まっているため、特にこの分野の上級研究者にとって、高いレビュー作業負荷が生じることが多い。
この問題に対処する方法はオープンな問題であり、主要なカンファレンスすべてで活発に議論されている。
本研究では,編集者,メタレビュアー,レビュアーの支援を目的としたArgument Miningに基づくアプローチを提案する。
学術論文の分野における意思決定プロセスは議論によって駆動され,様々なユースケースにおいて自動議論識別が有用であることを示す。
以上の知見の1つは、ピアレビュープロセスで使われる引数が他のドメインの引数とは異なるため、事前学習されたモデルの転送が困難であるということです。
そこで我々は,異なるコンピュータサイエンスカンファレンスから,注釈付き議論を伴う新たなピアレビューデータセットをコミュニティに提供する。
広範な経験的評価において,議論のマイニングは,出版決定に最も重要なレビューから,最も関連性の高い部分を効率的に抽出できることを示した。
抽出された引数は、コンテキストから切り離すことなく、レビューでハイライトできるため、プロセスは解釈可能である。
関連論文リスト
- A Unifying Framework for Learning Argumentation Semantics [50.69905074548764]
Inductive Logic Programmingアプローチを用いて、抽象的および構造化された議論フレームワークのアクセシビリティセマンティクスを解釈可能な方法で学習する新しいフレームワークを提案する。
提案手法は既存の議論解法よりも優れており,フォーマルな議論や人間と機械の対話の領域において,新たな研究の方向性が開けることになる。
論文 参考訳(メタデータ) (2023-10-18T20:18:05Z) - Scientific Opinion Summarization: Meta-review Generation with
Checklist-guided Iterative Introspection [61.99041542129813]
本稿では,論文レビューをメタレビューに合成する,科学的意見要約の課題を提案する。
39のカンファレンスから10,989のペーパーメタレビューと40,903のペーパーレビューをカバーする新しいORSUMデータセットを紹介した。
結論として,(1) 人書き要約はガイドラインに従わないものが多いため,必ずしも信頼できないものであって,(2) 課題分解と反復的自己調整の組み合わせは,有望な議論参加能力を示している。
論文 参考訳(メタデータ) (2023-05-24T02:33:35Z) - Submission-Aware Reviewer Profiling for Reviewer Recommender System [26.382772998002523]
本稿では,潜在的レビュアーが出版する各要約から,研究対象のトピックと,そのトピックを研究対象とする明示的な文脈を学習する手法を提案する。
実験の結果,既存手法と比較して精度が向上した。
この新しいアプローチは、過去2年でトップレベルのカンファレンスで成功している。
論文 参考訳(メタデータ) (2022-11-08T12:18:02Z) - Investigating Fairness Disparities in Peer Review: A Language Model
Enhanced Approach [77.61131357420201]
我々は、大規模言語モデル(LM)の助けを借りて、ピアレビューにおける公平性格差の徹底した厳密な研究を行う。
我々は、2017年から現在までのICLR(International Conference on Learning Representations)カンファレンスで、包括的なリレーショナルデータベースを収集、組み立て、維持しています。
我々は、著作者性別、地理、著作者、機関的名声など、興味のある複数の保護属性に対する公平性の違いを仮定し、研究する。
論文 参考訳(メタデータ) (2022-11-07T16:19:42Z) - Towards a Holistic View on Argument Quality Prediction [3.182597245365433]
議論の決定的な性質は、その強さまたは品質である。
議論の強さを自動推定する作業は存在するが、その範囲は狭い。
多様な領域にわたる議論品質推定の一般化能力,関連する議論マイニング課題との相互作用,および知覚された議論強度に対する感情の影響を評価する。
論文 参考訳(メタデータ) (2022-05-19T18:44:23Z) - Revise and Resubmit: An Intertextual Model of Text-based Collaboration
in Peer Review [52.359007622096684]
ピアレビューは、ほとんどの科学分野における出版プロセスの重要な要素である。
既存のNLP研究は個々のテキストの分析に重点を置いている。
編集補助は、しばしばテキストのペア間の相互作用をモデル化する必要がある。
論文 参考訳(メタデータ) (2022-04-22T16:39:38Z) - Ranking Scientific Papers Using Preference Learning [48.78161994501516]
我々はこれをピアレビューテキストとレビュアースコアに基づく論文ランキング問題とみなした。
ピアレビューに基づいて最終決定を行うための,新しい多面的総合評価フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-02T19:41:47Z) - ConvoSumm: Conversation Summarization Benchmark and Improved Abstractive
Summarization with Argument Mining [61.82562838486632]
我々は、さまざまなオンライン会話形式のニュースコメント、ディスカッションフォーラム、コミュニティ質問応答フォーラム、電子メールスレッドに関する4つの新しいデータセットをクラウドソースする。
我々は、データセットの最先端モデルをベンチマークし、データに関連する特徴を分析します。
論文 参考訳(メタデータ) (2021-06-01T22:17:13Z) - A Large Scale Randomized Controlled Trial on Herding in Peer-Review
Discussions [33.261698377782075]
我々は、レビュアーや上級意思決定者が議論で提示された最初の議論に不当に影響されるかどうかを理解することを目的としている。
具体的には,論文の結果に対する議論開始者の意見の条件因果効果をテストすることを目的として,ランダム化試験を設計・実施する。
論文 参考訳(メタデータ) (2020-11-30T18:23:07Z) - Quantitative Argument Summarization and Beyond: Cross-Domain Key Point
Analysis [17.875273745811775]
完全自動解析が可能なキーポイントの自動抽出法を開発した。
キーポイント解析の適用性は議論データを超えていることを実証する。
さらなる貢献は、引数対キーポイントマッチングモデルの詳細な評価である。
論文 参考訳(メタデータ) (2020-10-11T23:01:51Z) - AMPERSAND: Argument Mining for PERSuAsive oNline Discussions [41.06165177604387]
本稿では,オンライン議論フォーラムにおける議論マイニングのための計算モデルを提案する。
我々のアプローチは、議論スレッド内の引数のコンポーネント間の関係を識別することに依存します。
我々のモデルは最近の最先端のアプローチと比較して大幅に改善されている。
論文 参考訳(メタデータ) (2020-04-30T10:33:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。