論文の概要: What Makes a Scientific Paper be Accepted for Publication?
- arxiv url: http://arxiv.org/abs/2104.07112v1
- Date: Wed, 14 Apr 2021 20:26:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-16 15:06:06.746321
- Title: What Makes a Scientific Paper be Accepted for Publication?
- Title(参考訳): 科学論文が出版物として受け入れられる理由
- Authors: Panagiotis Fytas, Georgios Rizos, Lucia Specia
- Abstract要約: 私たちは、機械学習と説明可能なAIは、与えられたピアレビュープロセスからの決定に関する洞察を可能にするツールを提供すると主張しています。
まず、オープンなピアレビューデータセットで公開する科学論文の受理に影響を与える言語的特徴の形でグローバルな説明を抽出することから始めます。
- 参考スコア(独自算出の注目度): 32.11009230278947
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite peer-reviewing being an essential component of academia since the
1600s, it has repeatedly received criticisms for lack of transparency and
consistency. We posit that recent work in machine learning and explainable AI
provide tools that enable insights into the decisions from a given peer review
process. We start by extracting global explanations in the form of linguistic
features that affect the acceptance of a scientific paper for publication on an
open peer-review dataset. Second, since such global explanations do not justify
causal interpretations, we provide a methodology for detecting confounding
effects in natural language in order to generate causal explanations, under
assumptions, in the form of lexicons. Our proposed linguistic explanation
methodology indicates the following on a case dataset of ICLR submissions: a)
the organising committee follows, for the most part, the recommendations of
reviewers, and, b) the paper's main characteristics that led to reviewers
recommending acceptance for publication are originality, clarity and substance.
- Abstract(参考訳): ピアレビューは1600年代からアカデミアの不可欠な要素であったが、透明性と一貫性の欠如に対する批判を繰り返し受けてきた。
我々は、機械学習と説明可能なAIにおける最近の研究が、与えられたピアレビュープロセスからの意思決定に対する洞察を可能にするツールを提供していると仮定する。
まず、オープンなピアレビューデータセット上での科学論文の出版に影響を及ぼす言語的特徴の形で、グローバルな説明を抽出することから始める。
第2に,このような大域的な説明は因果解釈を正当化するものではないため,自然言語における共起効果の検出方法を提供し,仮説に基づく因果的説明をレキシコンの形で生成する。
提案する言語学的説明手法は,ICLR提出の事例データセットにおいて,以下のことを示唆している。 (a) 組織委員会は,主にレビュアーの推薦, (b) 出版の受理を推奨するレビュアーの主な特徴は,独創性,明快性,物質である。
関連論文リスト
- Reasoning with Natural Language Explanations [15.281385727331473]
説明は人間の合理性の根幹をなす特徴であり、学習と一般化を支えている。
自然言語推論(NLI)の研究は、学習や推論において説明が果たす役割を再考し始めている。
論文 参考訳(メタデータ) (2024-10-05T13:15:24Z) - Evaluating Human Alignment and Model Faithfulness of LLM Rationale [66.75309523854476]
大規模言語モデル(LLM)が,その世代を理論的にどのように説明するかを考察する。
提案手法は帰属に基づく説明よりも「偽り」が少ないことを示す。
論文 参考訳(メタデータ) (2024-06-28T20:06:30Z) - GLIMPSE: Pragmatically Informative Multi-Document Summarization for Scholarly Reviews [25.291384842659397]
本稿では,学術レビューの簡潔かつ包括的概要を提供するための要約手法であるsysを紹介する。
従来のコンセンサスに基づく手法とは異なり、sysは共通の意見とユニークな意見の両方をレビューから抽出する。
論文 参考訳(メタデータ) (2024-06-11T15:27:01Z) - A Literature Review of Literature Reviews in Pattern Analysis and Machine Intelligence [58.6354685593418]
本稿では, レビューを評価するために, 記事レベル, フィールド正規化, 大規模言語モデルを用いた書誌指標を提案する。
新たに登場したAI生成の文献レビューも評価されている。
この研究は、文学レビューの現在の課題についての洞察を与え、彼らの開発に向けた今後の方向性を思い起こさせる。
論文 参考訳(メタデータ) (2024-02-20T11:28:50Z) - Igniting Language Intelligence: The Hitchhiker's Guide From
Chain-of-Thought Reasoning to Language Agents [80.5213198675411]
大規模言語モデル(LLM)は言語知能の分野を劇的に拡張した。
LLMは興味をそそるチェーン・オブ・シークレット(CoT)推論技術を活用し、答えを導き出す途中の中間ステップを定式化しなければならない。
最近の研究は、自律言語エージェントの開発を促進するためにCoT推論手法を拡張している。
論文 参考訳(メタデータ) (2023-11-20T14:30:55Z) - Natural Language Decompositions of Implicit Content Enable Better Text
Representations [56.85319224208865]
本稿では,暗黙的に伝達されたコンテンツを明示的に考慮したテキスト分析手法を提案する。
我々は大きな言語モデルを用いて、観察されたテキストと推論的に関係する命題の集合を生成する。
本研究は,NLPにおいて,文字のみではなく,観察された言語の背景にある意味をモデル化することが重要であることを示唆する。
論文 参考訳(メタデータ) (2023-05-23T23:45:20Z) - Investigating Fairness Disparities in Peer Review: A Language Model
Enhanced Approach [77.61131357420201]
我々は、大規模言語モデル(LM)の助けを借りて、ピアレビューにおける公平性格差の徹底した厳密な研究を行う。
我々は、2017年から現在までのICLR(International Conference on Learning Representations)カンファレンスで、包括的なリレーショナルデータベースを収集、組み立て、維持しています。
我々は、著作者性別、地理、著作者、機関的名声など、興味のある複数の保護属性に対する公平性の違いを仮定し、研究する。
論文 参考訳(メタデータ) (2022-11-07T16:19:42Z) - Aspect-based Sentiment Analysis of Scientific Reviews [12.472629584751509]
本研究は,受理論文と受理論文ではアスペクトベース感情の分布が著しく異なることを示す。
第2の目的として、論文を閲覧するレビュアーの間での意見の不一致の程度を定量化する。
また, 審査員と議長との意見の不一致の程度について検討し, 審査員間の意見の不一致が議長との意見の不一致と関係があることを見出した。
論文 参考訳(メタデータ) (2020-06-05T07:06:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。