論文の概要: Can REF output quality scores be assigned by AI? Experimental evidence
- arxiv url: http://arxiv.org/abs/2212.08041v1
- Date: Sun, 11 Dec 2022 18:32:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-16 16:35:20.096934
- Title: Can REF output quality scores be assigned by AI? Experimental evidence
- Title(参考訳): REF出力の品質スコアはAIによって割り当てられるか?
実験的証拠
- Authors: Mike Thelwall, Kayvan Kousha, Mahshid Abdoli, Emma Stuart, Meiko
Makita, Paul Wilson, Jonathan Levitt
- Abstract要約: 5つの戦略が評価されている。
本論文は,人工知能(AI)を用いて,今後の研究評価演習における論文のスコアを予測するための戦略について述べる。
- 参考スコア(独自算出の注目度): 6.742334188488802
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This document describes strategies for using Artificial Intelligence (AI) to
predict some journal article scores in future research assessment exercises.
Five strategies have been assessed.
- Abstract(参考訳): 本稿では,人工知能(AI)を用いて今後の研究評価演習における論文のスコアを予測する戦略について述べる。
5つの戦略が評価されている。
関連論文リスト
- Domain-Specific Evaluation Strategies for AI in Journalism [3.2566808526538873]
ドメイン固有の調整の恩恵を受けることができるAI評価のさまざまな側面について検討する。
そうすることで、ジャーナリズムにおけるAI評価をガイドする潜在的なフレームワークを構築できる。
論文 参考訳(メタデータ) (2024-03-26T17:47:25Z) - A Literature Review of Literature Reviews in Pattern Analysis and Machine Intelligence [58.6354685593418]
本稿では, レビューを評価するために, 記事レベル, フィールド正規化, 大規模言語モデルを用いた書誌指標を提案する。
新たに登場したAI生成の文献レビューも評価されている。
この研究は、文学レビューの現在の課題についての洞察を与え、彼らの開発に向けた今後の方向性を思い起こさせる。
論文 参考訳(メタデータ) (2024-02-20T11:28:50Z) - Unveiling the Sentinels: Assessing AI Performance in Cybersecurity Peer
Review [4.081120388114928]
サイバーセキュリティの分野では、ダブルブラインドピアレビューの実践がデファクトスタンダードである。
本稿では、ピアレビューの聖杯に触れ、学術的セキュリティカンファレンスのレビューにおけるAIのパフォーマンスについて光を当てることを目的としている。
本研究では,人間レビュアーと機械学習モデルから得られた結果を比較し,評価結果の予測可能性について検討する。
論文 参考訳(メタデータ) (2023-09-11T13:51:40Z) - An Experimental Investigation into the Evaluation of Explainability
Methods [60.54170260771932]
この研究は、9つの最先端XAI法と3つのダミー法(例えば、ランダム・サリエンシ・マップ)に適用された14の異なるメトリクスを比較した。
実験の結果、これらの指標のどれが高い相関関係を示し、潜在的な冗長性を示している。
論文 参考訳(メタデータ) (2023-05-25T08:07:07Z) - Even if Explanations: Prior Work, Desiderata & Benchmarks for
Semi-Factual XAI [7.881140597011731]
反事実的、半事実的なサブタイプは、AIではあまり注目されていない。
本稿では,この地域の歴史的・最近のブレークスルーを要約する文献を調査する。
半実のXAIのための重要なデシラタを定義し、過去のアルゴリズムのベンチマークテストを報告している。
論文 参考訳(メタデータ) (2023-01-27T19:58:12Z) - Active Learning for Abstractive Text Summarization [50.79416783266641]
本稿では,抽象テキスト要約におけるアクティブラーニングのための最初の効果的なクエリ戦略を提案する。
ALアノテーションにおける私たちの戦略は、ROUGEと一貫性スコアの点からモデル性能を向上させるのに役立ちます。
論文 参考訳(メタデータ) (2023-01-09T10:33:14Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - If Only We Had Better Counterfactual Explanations: Five Key Deficits to
Rectify in the Evaluation of Counterfactual XAI Techniques [13.658942796267015]
文献に報告された100の異なる非実用説明方法を調査した。
これらの手法のわずか21%がユーザテストである。
これらの手法の評価における5つの重要な欠点について詳述する。
論文 参考訳(メタデータ) (2021-02-26T09:57:33Z) - Evaluation Toolkit For Robustness Testing Of Automatic Essay Scoring
Systems [64.4896118325552]
モデル逆算評価スキームと関連するメトリクスを用いて、現状のAESモデルを評価する。
AESモデルは非常に過大評価されていることがわかった。質問の話題に関係のない内容の重い修正(25%まで)でさえ、モデルが生み出すスコアを低下させることはない。
論文 参考訳(メタデータ) (2020-07-14T03:49:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。