論文の概要: What do writing features tell us about AI papers?
- arxiv url: http://arxiv.org/abs/2107.06310v1
- Date: Tue, 13 Jul 2021 18:12:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-15 14:22:03.422671
- Title: What do writing features tell us about AI papers?
- Title(参考訳): AI論文について、機能の記述は何か?
- Authors: Zining Zhu, Bai Li, Yang Xu, Frank Rudzicz
- Abstract要約: 学術論文の解釈可能な次元を研究することは、スケーラブルな解決につながると論じる。
我々は,文章の特徴の集合を抽出し,これらの特徴の引用数予測とAI関連論文の公開における有用性を評価するための一連の予測タスクを構築する。
- 参考スコア(独自算出の注目度): 23.224038524126467
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As the numbers of submissions to conferences grow quickly, the task of
assessing the quality of academic papers automatically, convincingly, and with
high accuracy attracts increasing attention. We argue that studying
interpretable dimensions of these submissions could lead to scalable solutions.
We extract a collection of writing features, and construct a suite of
prediction tasks to assess the usefulness of these features in predicting
citation counts and the publication of AI-related papers. Depending on the
venues, the writing features can predict the conference vs. workshop appearance
with F1 scores up to 60-90, sometimes even outperforming the content-based
tf-idf features and RoBERTa. We show that the features describe writing style
more than content. To further understand the results, we estimate the causal
impact of the most indicative features. Our analysis on writing features
provides a perspective to assessing and refining the writing of academic
articles at scale.
- Abstract(参考訳): 会議への提出数が急速に増加するにつれて,学術論文の品質を自動的に,説得力強く,高精度に評価する作業が注目されるようになる。
これらの提案の解釈可能な次元の研究は、スケーラブルなソリューションにつながる可能性がある。
我々は,文章の特徴の集合を抽出し,これらの特徴の引用数予測とAI関連論文の公開における有用性を評価するための一連の予測タスクを構築する。
会場によっては、f1スコアが最大60-90、時にはコンテンツベースのtf-idf機能やrobertaよりも優れる場合もあります。
内容よりも文章のスタイルを記述した特徴が示される。
結果をさらに理解するために,最も示唆的な特徴の因果的影響を推定する。
本研究は,学術論文の執筆を大規模に評価し,精査するための視点を提供する。
関連論文リスト
- BookWorm: A Dataset for Character Description and Analysis [59.186325346763184]
本稿では,短い事実プロファイルを生成する文字記述と,詳細な解釈を提供する文字解析という2つのタスクを定義する。
本稿では,Gutenbergプロジェクトからの書籍と,人間による記述と分析のペアリングを行うBookWormデータセットを紹介する。
その結果,検索に基づくアプローチは両タスクにおいて階層的アプローチよりも優れていた。
論文 参考訳(メタデータ) (2024-10-14T10:55:58Z) - Leveraging Contextual Information for Effective Entity Salience Detection [21.30389576465761]
クロスエンコーダアーキテクチャを用いた中規模言語モデルの微調整により,機能工学的アプローチよりも優れた性能が得られることを示す。
また、命令調整言語モデルのゼロショットプロンプトは、タスクの特異性と複雑さを示す劣った結果をもたらすことを示す。
論文 参考訳(メタデータ) (2023-09-14T19:04:40Z) - Automatic Recognition and Classification of Future Work Sentences from
Academic Articles in a Specific Domain [7.652206854575039]
FWS(Future Work sentences)は、著者が提案したフォローアップ研究の方向性を記述した学術論文の文章である。
本稿では,学術論文から自動的にFWSを抽出し,論文の内容に具現化された異なる将来方向に応じて分類する手法を提案する。
論文 参考訳(メタデータ) (2022-12-28T15:26:04Z) - Investigating Fairness Disparities in Peer Review: A Language Model
Enhanced Approach [77.61131357420201]
我々は、大規模言語モデル(LM)の助けを借りて、ピアレビューにおける公平性格差の徹底した厳密な研究を行う。
我々は、2017年から現在までのICLR(International Conference on Learning Representations)カンファレンスで、包括的なリレーショナルデータベースを収集、組み立て、維持しています。
我々は、著作者性別、地理、著作者、機関的名声など、興味のある複数の保護属性に対する公平性の違いを仮定し、研究する。
論文 参考訳(メタデータ) (2022-11-07T16:19:42Z) - PART: Pre-trained Authorship Representation Transformer [64.78260098263489]
文書を書く著者は、語彙、レジストリ、句読点、ミススペル、絵文字の使用など、テキスト内での識別情報をインプリントする。
以前の作品では、手作りのフィーチャや分類タスクを使用して著者モデルをトレーニングし、ドメイン外の著者に対するパフォーマンスの低下につながった。
セマンティクスの代わりにtextbfauthorship の埋め込みを学習するために、対照的に訓練されたモデルを提案する。
論文 参考訳(メタデータ) (2022-09-30T11:08:39Z) - Automatic Analysis of Linguistic Features in Journal Articles of
Different Academic Impacts with Feature Engineering Techniques [0.975434908987426]
本研究では, 特徴工学的手法を用いて, 高次・中等度な学術誌RAのマイクロレベル言語的特徴の抽出を試みた。
英文記事のコーパスから特徴選択手法を用いて,25の高関連特徴を抽出した。
その結果, 隣接文間の内容語重複, 第三者代名詞の使用, 助動詞, 時制, 感情語など24種類の言語的特徴が, 学術的影響の異なる雑誌記事に対して一貫した, 正確な予測を提供することがわかった。
論文 参考訳(メタデータ) (2021-11-15T03:56:50Z) - Weakly-Supervised Aspect-Based Sentiment Analysis via Joint
Aspect-Sentiment Topic Embedding [71.2260967797055]
アスペクトベース感情分析のための弱教師付きアプローチを提案する。
We learn sentiment, aspects> joint topic embeddeds in the word embedding space。
次に、ニューラルネットワークを用いて単語レベルの識別情報を一般化する。
論文 参考訳(メタデータ) (2020-10-13T21:33:24Z) - Abstractive Summarization of Spoken and Written Instructions with BERT [66.14755043607776]
本稿では,BERTSumモデルの最初の対話型言語への応用について述べる。
我々は多種多様な話題にまたがるナレーションビデオの抽象要約を生成する。
我々は、これをインテリジェントな仮想アシスタントの機能として統合し、要求に応じて文字と音声の両方の指導内容の要約を可能にすることを想定する。
論文 参考訳(メタデータ) (2020-08-21T20:59:34Z) - Machine Identification of High Impact Research through Text and Image
Analysis [0.4737991126491218]
本稿では,引用の可能性が低い論文から高い論文を自動的に分離するシステムを提案する。
本システムでは,文書全体の外観を推測する視覚的分類器と,コンテンツインフォームド決定のためのテキスト分類器の両方を用いる。
論文 参考訳(メタデータ) (2020-05-20T19:12:24Z) - ORB: An Open Reading Benchmark for Comprehensive Evaluation of Machine
Reading Comprehension [53.037401638264235]
我々は,7種類の読解データセットの性能を報告する評価サーバORBを提案する。
評価サーバは、モデルのトレーニング方法に制限を課さないため、トレーニングパラダイムや表現学習の探索に適したテストベッドである。
論文 参考訳(メタデータ) (2019-12-29T07:27:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。