論文の概要: A Content-Based Novelty Measure for Scholarly Publications: A Proof of
Concept
- arxiv url: http://arxiv.org/abs/2401.03642v2
- Date: Tue, 16 Jan 2024 01:05:59 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-17 23:34:12.115755
- Title: A Content-Based Novelty Measure for Scholarly Publications: A Proof of
Concept
- Title(参考訳): 学術出版物のコンテンツに基づく新規性尺度:概念実証
- Authors: Haining Wang
- Abstract要約: 学術出版物にノベルティの情報理論尺度を導入する。
この尺度は、学術談話の単語分布を表す言語モデルによって知覚される「サプライズ」の度合いを定量化する。
- 参考スコア(独自算出の注目度): 9.148691357200216
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Novelty, akin to gene mutation in evolution, opens possibilities for
scholarly advancement. Although peer review remains the gold standard for
evaluating novelty in scholarly communication and resource allocation, the vast
volume of submissions necessitates an automated measure of scholarly novelty.
Adopting a perspective that views novelty as the atypical combination of
existing knowledge, we introduce an information-theoretic measure of novelty in
scholarly publications. This measure quantifies the degree of 'surprise'
perceived by a language model that represents the word distribution of
scholarly discourse. The proposed measure is accompanied by face and construct
validity evidence; the former demonstrates correspondence to scientific common
sense, and the latter is endorsed through alignment with novelty evaluations
from a select panel of domain experts. Additionally, characterized by its
interpretability, fine granularity, and accessibility, this measure addresses
gaps prevalent in existing methods. We believe this measure holds great
potential to benefit editors, stakeholders, and policymakers, and it provides a
reliable lens for examining the relationship between novelty and academic
dynamics such as creativity, interdisciplinarity, and scientific advances.
- Abstract(参考訳): 進化における遺伝子変異に似た新規性は、学術的な進歩の可能性を開く。
ピアレビューは学術的コミュニケーションと資源配分のノベルティを評価するためのゴールドスタンダードであり続けているが、大量の投稿は学術的ノベルティの自動測定を必要としている。
既存の知識の非典型的組み合わせとしてノベルティを捉える視点を取り入れ,学術出版物にノベルティの情報理論尺度を導入する。
この尺度は、学術的談話の単語分布を表す言語モデルによって認識される「サーピゼーション」の程度を定量化する。
前者は科学的常識に対応することを示し、後者はドメイン専門家の選抜パネルによる斬新な評価と一致して支持される。
さらに、その解釈可能性、粒度、アクセシビリティによって特徴づけられるこの測定は、既存の手法でよく見られるギャップに対処する。
我々は、この尺度が編集者、利害関係者、政策立案者にとって大きな利益をもたらすと信じており、創造性、学際性、科学的進歩といった学問的ダイナミクスと新規性との関係を調べるための信頼できるレンズを提供する。
関連論文リスト
- Discovering emergent connections in quantum physics research via dynamic word embeddings [0.562479170374811]
概念結合予測のための動的単語埋め込みに基づく新しい手法を提案する。
知識グラフとは異なり,本手法は概念間の暗黙の関係を捉え,教師なしの方法で学習し,より広い範囲の情報を符号化する。
この表現は、科学文献における概念的関係をモデル化するための、より柔軟で情報的な方法を提供することを示唆している。
論文 参考訳(メタデータ) (2024-11-10T19:45:59Z) - A Survey on Emergent Language [9.823821010022932]
この論文は、人工知能における創発的言語に関する181の科学論文の包括的なレビューを提供する。
その目的は、この分野に興味のある研究者や熟練した研究者の参考となることである。
論文 参考訳(メタデータ) (2024-09-04T12:22:05Z) - Inclusivity in Large Language Models: Personality Traits and Gender Bias in Scientific Abstracts [49.97673761305336]
我々は,3つの大きな言語モデル (LLM) を,人間の物語スタイルと潜在的な性別バイアスに適合させることで評価した。
以上の結果から,これらのモデルは一般的にヒトの投稿内容によく似たテキストを生成するが,スタイル的特徴の変化は有意な性差を示すことが示唆された。
論文 参考訳(メタデータ) (2024-06-27T19:26:11Z) - ResearchAgent: Iterative Research Idea Generation over Scientific Literature with Large Language Models [56.08917291606421]
ResearchAgentは、大規模言語モデルによる研究アイデア作成エージェントである。
科学文献に基づいて繰り返し精製しながら、問題、方法、実験設計を生成する。
我々は、複数の分野にわたる科学論文に関するResearchAgentを実験的に検証した。
論文 参考訳(メタデータ) (2024-04-11T13:36:29Z) - A Literature Review of Literature Reviews in Pattern Analysis and Machine Intelligence [58.6354685593418]
本稿では, レビューを評価するために, 記事レベル, フィールド正規化, 大規模言語モデルを用いた書誌指標を提案する。
新たに登場したAI生成の文献レビューも評価されている。
この研究は、文学レビューの現在の課題についての洞察を与え、彼らの開発に向けた今後の方向性を思い起こさせる。
論文 参考訳(メタデータ) (2024-02-20T11:28:50Z) - BBScore: A Brownian Bridge Based Metric for Assessing Text Coherence [20.507596002357655]
コヒーレントテキストは本質的に文間の連続的かつ密着的な相互作用を示す。
BBScore(英: BBScore)は、ブラウン橋理論において、テキストコヒーレンスを評価するための基準のない計量である。
論文 参考訳(メタデータ) (2023-12-28T08:34:17Z) - A Systematic Review on Fostering Appropriate Trust in Human-AI
Interaction [19.137907393497848]
人工知能の適切な信頼(AI)システムは、研究者と実践者の両方にとって、急速に重要な領域になってきた。
信頼度スコア、説明、信頼度基準、不確実性通信など、様々なアプローチがそれを達成するために使われてきた。
本稿では、適切な信頼を構築するための現在の実践、それを測定するためのさまざまな方法、使用するタスクの種類、それに関連する潜在的な課題を特定するための体系的なレビューを示す。
論文 参考訳(メタデータ) (2023-11-08T12:19:58Z) - Knowledge Graph Context-Enhanced Diversified Recommendation [53.3142545812349]
本研究では,知識グラフ(KG)の複雑な文脈における多角化RecSys領域について検討する。
私たちのコントリビューションには、革新的なメトリック、エンティティカバレッジ、KGドメイン内の多様性を効果的に定量化するリレーショナルカバレッジの導入が含まれています。
そこで本稿では,文脈整合性を維持しつつ,KG項目の埋め込みを符号化するCAU(Conditional Alignment and Uniformity)という新しい手法を紹介する。
論文 参考訳(メタデータ) (2023-10-20T03:18:57Z) - Exploring and Verbalizing Academic Ideas by Concept Co-occurrence [42.16213986603552]
本研究は,学術的アイデアインスピレーションのための概念共起に基づく枠組みを考案する。
我々は20の分野やトピックから概念の共起関係に基づき、進化する概念グラフを構築する。
我々は、共起励磁法と呼ばれる新しいデータ構造に基づくアイデアの記述を生成する。
論文 参考訳(メタデータ) (2023-06-04T07:01:30Z) - SciMON: Scientific Inspiration Machines Optimized for Novelty [68.46036589035539]
文献に基づく新たな科学的方向を生成するために,ニューラルランゲージモデルを探索し,拡張する。
モデルが入力背景コンテキストとして使用される新しい設定で、劇的な出発をとっています。
本稿では,過去の科学的論文から「吸入」を抽出するモデリングフレームワークであるSciMONを紹介する。
論文 参考訳(メタデータ) (2023-05-23T17:12:08Z) - Investigating Fairness Disparities in Peer Review: A Language Model
Enhanced Approach [77.61131357420201]
我々は、大規模言語モデル(LM)の助けを借りて、ピアレビューにおける公平性格差の徹底した厳密な研究を行う。
我々は、2017年から現在までのICLR(International Conference on Learning Representations)カンファレンスで、包括的なリレーショナルデータベースを収集、組み立て、維持しています。
我々は、著作者性別、地理、著作者、機関的名声など、興味のある複数の保護属性に対する公平性の違いを仮定し、研究する。
論文 参考訳(メタデータ) (2022-11-07T16:19:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。