論文の概要: A review on the novelty measurements of academic papers
- arxiv url: http://arxiv.org/abs/2501.17456v1
- Date: Wed, 29 Jan 2025 07:33:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-30 15:53:43.869062
- Title: A review on the novelty measurements of academic papers
- Title(参考訳): 学術論文の新規性測定に関するレビュー
- Authors: Yi Zhao, Chengzhi Zhang,
- Abstract要約: 本総説は,科学論文における新規性測定の体系的分析をめざすものである。
我々は、科学的新奇性と、独創性、科学的革新、創造性、科学的ブレークスルーを含む4つの類似した概念の違いを比較する。
ノベルティ対策の検証に用いられているアプローチを調査し,これらの対策に関連する現在のツールやデータセットについて検討した。
- 参考スコア(独自算出の注目度): 7.871914497746847
- License:
- Abstract: Novelty evaluation is vital for the promotion and management of innovation. With the advancement of information techniques and the open data movement, some progress has been made in novelty measurements. Tracking and reviewing novelty measures provides a data-driven way to assess contributions, progress, and emerging directions in the science field. As academic papers serve as the primary medium for the dissemination, validation, and discussion of scientific knowledge, this review aims to offer a systematic analysis of novelty measurements for scientific papers. We began by comparing the differences between scientific novelty and four similar concepts, including originality, scientific innovation, creativity, and scientific breakthrough. Next, we reviewed the types of scientific novelty. Then, we classified existing novelty measures according to data types and reviewed the measures for each type. Subsequently, we surveyed the approaches employed in validating novelty measures and examined the current tools and datasets associated with these measures. Finally, we proposed several open issues for future studies.
- Abstract(参考訳): 新規性評価はイノベーションの促進と管理に不可欠である。
情報技術の進歩とオープンなデータ移動により、新しい測定方法がいくつか進歩している。
ノベルティ対策の追跡とレビューは、科学分野における貢献、進歩、そして新たな方向性を評価するためのデータ駆動的な方法を提供する。
学術論文が科学的知識の普及・検証・議論の主要な媒体であるので,本論は科学論文の新規性測定を体系的に分析することを目的としている。
まず、科学的ノベルティと、独創性、科学的革新、創造性、科学的ブレークスルーを含む4つの類似した概念の違いを比較した。
次に,科学的新奇性について概説した。
そこで本研究では,既存の新規性対策をデータタイプによって分類し,各タイプの対策を見直した。
その後,新規性尺度の検証に用いられているアプローチを調査し,これらの尺度に関連する現在のツールやデータセットについて検討した。
最後に,今後の研究に向けて,いくつかのオープンな課題を提案する。
関連論文リスト
- Transforming Science with Large Language Models: A Survey on AI-assisted Scientific Discovery, Experimentation, Content Generation, and Evaluation [58.064940977804596]
多くの新しいAIモデルとツールが提案され、世界中の研究者や学者が研究をより効果的かつ効率的に実施できるようにすることを約束している。
これらのツールの欠点と誤用の可能性に関する倫理的懸念は、議論の中で特に顕著な位置を占める。
論文 参考訳(メタデータ) (2025-02-07T18:26:45Z) - Human Action Anticipation: A Survey [86.415721659234]
行動予測に関する文献は、行動予測、活動予測、意図予測、目標予測など、様々なタスクにまたがる。
我々の調査は、この断片化された文献を結びつけることを目的としており、最近の技術革新とモデルトレーニングと評価のための新しい大規模データセットの開発をカバーしています。
論文 参考訳(メタデータ) (2024-10-17T21:37:40Z) - Measuring publication relatedness using controlled vocabularies [0.0]
制御された語彙は関連性を測定するための有望な基盤を提供する。
様々な種類の研究課題に対して、その正確さと適合性に関する包括的かつ直接的なテストは存在しない。
本稿では,既存の測度をレビューし,新しい測度を開発し,TRECゲノミクスデータを用いた測度をトピックの基礎的真理として評価する。
論文 参考訳(メタデータ) (2024-08-27T12:41:37Z) - MASSW: A New Dataset and Benchmark Tasks for AI-Assisted Scientific Workflows [58.56005277371235]
我々は,Multi-Aspect Summarization of ScientificAspectsに関する総合テキストデータセットであるMASSWを紹介する。
MASSWには過去50年間にわたる17の主要なコンピュータサイエンスカンファレンスから152,000以上の査読論文が含まれている。
我々は、この新しいデータセットを用いてベンチマーク可能な、複数の新しい機械学習タスクを通じて、MASSWの有用性を実証する。
論文 参考訳(メタデータ) (2024-06-10T15:19:09Z) - A Content-Based Novelty Measure for Scholarly Publications: A Proof of
Concept [9.148691357200216]
学術出版物にノベルティの情報理論尺度を導入する。
この尺度は、学術談話の単語分布を表す言語モデルによって知覚される「サプライズ」の度合いを定量化する。
論文 参考訳(メタデータ) (2024-01-08T03:14:24Z) - Recent Few-Shot Object Detection Algorithms: A Survey with Performance
Comparison [54.357707168883024]
Few-Shot Object Detection (FSOD)は、人間の学習能力を模倣する。
FSODは、学習した汎用オブジェクトの知識を共通のヘビーテールから新しいロングテールオブジェクトクラスにインテリジェントに転送する。
本稿では,問題定義,共通データセット,評価プロトコルなどを含むFSODの概要を紹介する。
論文 参考訳(メタデータ) (2022-03-27T04:11:28Z) - Deep Learning Schema-based Event Extraction: Literature Review and
Current Trends [60.29289298349322]
ディープラーニングに基づくイベント抽出技術が研究ホットスポットとなっている。
本稿では,ディープラーニングモデルに焦点をあて,最先端のアプローチを見直し,そのギャップを埋める。
論文 参考訳(メタデータ) (2021-07-05T16:32:45Z) - Academics evaluating academics: a methodology to inform the review
process on top of open citations [1.911678487931003]
オープンな引用のみを考慮して計算された引用に基づくメトリクスが、人間の査定演習のピアレビューの実施方法に関する洞察を得ることのできるデータを提供するかどうかを考察する。
我々は,研究評価演習の委員会の決定を再現するために,一連の機械学習モデルを提案する。
論文 参考訳(メタデータ) (2021-06-10T13:09:15Z) - A Survey on Text Classification: From Shallow to Deep Learning [83.47804123133719]
過去10年は、ディープラーニングが前例のない成功を収めたために、この分野の研究が急増している。
本稿では,1961年から2021年までの最先端のアプローチを見直し,そのギャップを埋める。
特徴抽出と分類に使用されるテキストとモデルに基づいて,テキスト分類のための分類を作成する。
論文 参考訳(メタデータ) (2020-08-02T00:09:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。