論文の概要: A Literature Review of Literature Reviews in Pattern Analysis and
Machine Intelligence
- arxiv url: http://arxiv.org/abs/2402.12928v3
- Date: Thu, 29 Feb 2024 15:34:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-01 17:31:00.002496
- Title: A Literature Review of Literature Reviews in Pattern Analysis and
Machine Intelligence
- Title(参考訳): パターン分析と機械学習における文献レビューの文献レビュー
- Authors: Penghai Zhao, Xin Zhang, Ming-Ming Cheng, Jian Yang, Xiang Li
- Abstract要約: この分析は、様々な観点からPAMI分野のレビューを徹底的にレビューすることを目的としている。
書評を自動評価するために,大規模言語モデルを用いた書評指標を提案する。
新たに登場したAI生成の文献レビューも評価されている。
- 参考スコア(独自算出の注目度): 62.90682521144006
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: By consolidating scattered knowledge, the literature review provides a
comprehensive understanding of the investigated topic. However, excessive
reviews, especially in the booming field of pattern analysis and machine
intelligence (PAMI), raise concerns for both researchers and reviewers. In
response to these concerns, this Analysis aims to provide a thorough review of
reviews in the PAMI field from diverse perspectives. First, large language
model-empowered bibliometric indicators are proposed to evaluate literature
reviews automatically. To facilitate this, a meta-data database dubbed RiPAMI,
and a topic dataset are constructed, which are utilized to obtain statistical
characteristics of PAMI reviews. Unlike traditional bibliometric measurements,
the proposed article-level indicators provide real-time and field-normalized
quantified assessments of reviews without relying on user-defined keywords.
Second, based on these indicators, the study presents comparative analyses of
different reviews, unveiling the characteristics of publications across various
fields, periods, and journals. The newly emerging AI-generated literature
reviews are also appraised, and the observed differences suggest that most
AI-generated reviews still lag behind human-authored reviews in several
aspects. Third, we briefly provide a subjective evaluation of representative
PAMI reviews and introduce a paper structure-based typology of literature
reviews. This typology may improve the clarity and effectiveness for scholars
in reading and writing reviews, while also serving as a guide for AI systems in
generating well-organized reviews. Finally, this Analysis offers insights into
the current challenges of literature reviews and envisions future directions
for their development.
- Abstract(参考訳): 散在する知識を集約することにより,研究対象の総合的な理解を提供する。
しかし、特にパターン分析とマシンインテリジェンス(PAMI)の急激な分野における過度なレビューは、研究者とレビュアーの両方に懸念を与えている。
これらの懸念に応えて,本分析は多種多様な視点からPAMI分野のレビューを徹底的にレビューすることを目的としている。
まず,大規模言語モデルを用いた文献評価指標を提案し,文献レビューを自動評価する。
これを容易にするために、PAMIレビューの統計的特徴を得るために、RiPAMIと呼ばれるメタデータデータベースとトピックデータセットを構築した。
従来の文献計測とは違って,提案した論文レベルの指標は,ユーザ定義のキーワードに頼ることなく,レビューのリアルタイムおよびフィールド正規化定量評価を提供する。
第2に、これらの指標に基づき、論文レビューの比較分析を行い、様々な分野、時代、雑誌にまたがる出版物の特徴を明らかにする。
新たなAI生成の文献レビューも評価されており、観察された違いは、ほとんどのAI生成のレビューが、いくつかの面で人間によるレビューより遅れていることを示している。
第3に,代表的なパミレビューを主観的に評価し,文献レビューの書体構造に基づくタイポロジーを紹介する。
このタイポロジーは、レビューの読み書きにおける学者の明快さと有効性を改善しつつ、十分に整理されたレビューを生成するためのAIシステムのガイドとしても機能する。
最後に、この分析は文献レビューの現在の課題に対する洞察を与え、今後の展開を展望する。
関連論文リスト
- Sentiment Analysis in Digital Spaces: An Overview of Reviews [0.0]
本報告では,2,275の初等研究を含む38の体系的レビューについて概説する。
我々は,システムレビュー方法論と報告基準の厳格さと品質を評価するための,見事な品質評価フレームワークを考案した。
この結果から,多様な応用や手法,報告の厳密さの制限,時間の経過とともに課題が明らかになった。
論文 参考訳(メタデータ) (2023-10-30T16:04:35Z) - Exploring the Power of Topic Modeling Techniques in Analyzing Customer
Reviews: A Comparative Analysis [0.0]
大量のテキストデータをオンラインで分析するために、機械学習と自然言語処理アルゴリズムがデプロイされている。
本研究では,顧客レビューに特化して用いられる5つのトピックモデリング手法について検討・比較する。
以上の結果から,BERTopicはより意味のあるトピックを抽出し,良好な結果を得ることができた。
論文 参考訳(メタデータ) (2023-08-19T08:18:04Z) - Perspectives on Large Language Models for Relevance Judgment [56.935731584323996]
大型言語モデル(LLM)は、関連判断を支援することができると主張している。
自動判定が検索システムの評価に確実に利用できるかどうかは不明である。
論文 参考訳(メタデータ) (2023-04-13T13:08:38Z) - Hierarchical Catalogue Generation for Literature Review: A Benchmark [36.22298354302282]
本稿では,7.6kの文献レビューカタログと389kの参考論文を収録した,新しい英語階層カタログ・オブ・文学レビューデータセットを構築した。
モデルの性能を正確に評価するために,2つの評価指標を設計する。
論文 参考訳(メタデータ) (2023-04-07T07:13:35Z) - Artificial intelligence technologies to support research assessment: A
review [10.203602318836444]
この文献レビューは、記事のテキストから、より高いインパクトやより高い品質の研究に関連する指標を特定する。
論文やカンファレンス論文の引用数や品質スコアを予測するために機械学習技術を使用した研究が含まれている。
論文 参考訳(メタデータ) (2022-12-11T06:58:39Z) - Investigating Fairness Disparities in Peer Review: A Language Model
Enhanced Approach [77.61131357420201]
我々は、大規模言語モデル(LM)の助けを借りて、ピアレビューにおける公平性格差の徹底した厳密な研究を行う。
我々は、2017年から現在までのICLR(International Conference on Learning Representations)カンファレンスで、包括的なリレーショナルデータベースを収集、組み立て、維持しています。
我々は、著作者性別、地理、著作者、機関的名声など、興味のある複数の保護属性に対する公平性の違いを仮定し、研究する。
論文 参考訳(メタデータ) (2022-11-07T16:19:42Z) - Social Biases in Automatic Evaluation Metrics for NLG [53.76118154594404]
本稿では,単語埋め込みアソシエーションテスト(WEAT)と文埋め込みアソシエーションテスト(SEAT)に基づく評価手法を提案する。
我々は、画像キャプションやテキスト要約タスクにおける性別バイアスの影響を調査するために、性別対応メタ評価データセットを構築した。
論文 参考訳(メタデータ) (2022-10-17T08:55:26Z) - A Survey on Text Classification: From Shallow to Deep Learning [83.47804123133719]
過去10年は、ディープラーニングが前例のない成功を収めたために、この分野の研究が急増している。
本稿では,1961年から2021年までの最先端のアプローチを見直し,そのギャップを埋める。
特徴抽出と分類に使用されるテキストとモデルに基づいて,テキスト分類のための分類を作成する。
論文 参考訳(メタデータ) (2020-08-02T00:09:03Z) - ORB: An Open Reading Benchmark for Comprehensive Evaluation of Machine
Reading Comprehension [53.037401638264235]
我々は,7種類の読解データセットの性能を報告する評価サーバORBを提案する。
評価サーバは、モデルのトレーニング方法に制限を課さないため、トレーニングパラダイムや表現学習の探索に適したテストベッドである。
論文 参考訳(メタデータ) (2019-12-29T07:27:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。