論文の概要: Methodological Variation in Studying Staff and Student Perceptions of AI
- arxiv url: http://arxiv.org/abs/2602.11158v1
- Date: Mon, 22 Dec 2025 11:04:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-23 12:01:13.507896
- Title: Methodological Variation in Studying Staff and Student Perceptions of AI
- Title(参考訳): AIの学習スタッフと学生の知覚の方法論的変化
- Authors: Juliana Gerard, Morgan Macleod, Kelly Norwood, Aisling Reid, Muskaan Singh,
- Abstract要約: 我々は、一般的に単一の量的または質的な尺度によって評価されるAI知覚のケースに焦点を当てる。
異なるアプローチを比較するために、スタンドアローンのコメントと構造化されたフォーカスグループという2種類の定性的データを収集する。
異なる分析によって、単一のデータソースに対して異なる結果が得られることを示す。
- 参考スコア(独自算出の注目度): 1.701796716399534
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we compare methodological approaches for comparing student and staff perceptions, and ask: how much do these measures vary across different approaches? We focus on the case of AI perceptions, which are generally assessed via a single quantitative or qualitative measure, or with a mixed methods approach that compares two distinct data sources - e.g. a quantitative questionnaire with qualitative comments. To compare different approaches, we collect two forms of qualitative data: standalone comments and structured focus groups. We conduct two analyses for each data source: with a sentiment and stance analysis, we measure overall negativity/positivity of the comments and focus group conversations, respectively. Meanwhile, word clouds from the comments and a thematic analysis of the focus groups provide further detail on the content of this qualitative data - particularly the thematic analysis, which includes both similarities and differences between students and staff. We show that different analyses can produce different results - for a single data source. This variation stems from the construct being evaluated - an overall measure of positivity/negativity can produce a different picture from more detailed content-based analyses. We discuss the implications of this variation for institutional contexts, and for the comparisons from previous studies.
- Abstract(参考訳): 本稿では,学生と職員の認知度を比較するための方法論的アプローチを比較し,これらの尺度は,異なるアプローチでどの程度異なるのかを問う。
我々は、単一の量的または質的な尺度で一般的に評価されるAI知覚の場合、または2つの異なるデータソース(例えば質的なコメントによる量的アンケート)と比較する混合手法で焦点を当てる。
異なるアプローチを比較するために、スタンドアローンのコメントと構造化されたフォーカスグループという2種類の定性的データを収集する。
我々は、感情と姿勢分析の2つのデータソースについて分析を行い、コメントの全体的な否定性と肯定性をそれぞれ測定し、グループ間の会話に焦点を当てた。
一方、コメントからのワードクラウドとフォーカスグループのテーマ分析は、この質的なデータの内容、特に学生とスタッフの類似点と相違点を含むテーマ分析の詳細を提供する。
異なる分析によって、単一のデータソースに対して異なる結果が得られることを示す。
この変化は、評価される構成から来ており、肯定性/否定性の総合的な尺度は、より詳細な内容に基づく分析とは異なる図を生成することができる。
本稿では,この変化が制度的文脈に与える影響と過去の研究との比較について論じる。
関連論文リスト
- An unsupervised learning approach to evaluate questionnaire data -- what
one can learn from violations of measurement invariance [2.4762962548352467]
本稿では,このような研究データに対する教師なし学習に基づくアプローチを提案する。
データ準備、アンケートのクラスタリング、得られたクラスタリングと各グループの特性に基づいて類似度を測定する。
グループ間の自然な比較と、グループの応答パターンの自然な記述を提供する。
論文 参考訳(メタデータ) (2023-12-11T11:31:41Z) - Revisiting the Evaluation of Image Synthesis with GANs [55.72247435112475]
本研究では, 合成性能の評価に関する実証的研究を行い, 生成モデルの代表としてGAN(Generative Adversarial Network)を用いた。
特に、表現空間におけるデータポイントの表現方法、選択したサンプルを用いた公平距離の計算方法、各集合から使用可能なインスタンス数など、さまざまな要素の詳細な分析を行う。
論文 参考訳(メタデータ) (2023-04-04T17:54:32Z) - A Fair and Comprehensive Comparison of Multimodal Tweet Sentiment
Analysis Methods [3.8142537449670963]
本研究は,6つの最先端手法による総合的な実験評価と比較を行った。
結果は、ツイートと対応するイメージの2つの異なる公開ベンチマークデータセットに対して提示される。
論文 参考訳(メタデータ) (2021-06-16T14:44:48Z) - A Statistical Analysis of Summarization Evaluation Metrics using
Resampling Methods [60.04142561088524]
信頼区間は比較的広く,信頼性の高い自動測定値の信頼性に高い不確実性を示す。
多くのメトリクスはROUGEよりも統計的改善を示していないが、QAEvalとBERTScoreという2つの最近の研究は、いくつかの評価設定で行われている。
論文 参考訳(メタデータ) (2021-03-31T18:28:14Z) - Learning From Revisions: Quality Assessment of Claims in Argumentation
at Scale [12.883536911500062]
本研究は,同一クレームの異なるリビジョンを比較することにより,議論された側面に関わらずクレーム品質評価を行う。
本稿では,どのリビジョンペアのクレームがよいかを評価し,クレームのすべてのバージョンを品質でランク付けする2つのタスクを提案する。
論文 参考訳(メタデータ) (2021-01-25T17:32:04Z) - Through the Data Management Lens: Experimental Analysis and Evaluation
of Fair Classification [75.49600684537117]
データ管理研究は、データとアルゴリズムの公平性に関連するトピックに対する存在感と関心が高まっている。
我々は,その正しさ,公平性,効率性,スケーラビリティ,安定性よりも,13の公正な分類アプローチと追加の変種を幅広く分析している。
我々の分析は、異なるメトリクスとハイレベルなアプローチ特性がパフォーマンスの異なる側面に与える影響に関する新しい洞察を強調します。
論文 参考訳(メタデータ) (2021-01-18T22:55:40Z) - Interpretable Multi-dataset Evaluation for Named Entity Recognition [110.64368106131062]
本稿では,名前付きエンティティ認識(NER)タスクに対する一般的な評価手法を提案する。
提案手法は,モデルとデータセットの違いと,それらの間の相互作用を解釈することを可能にする。
分析ツールを利用可能にすることで、将来の研究者が同様の分析を実行し、この分野の進歩を促進することができる。
論文 参考訳(メタデータ) (2020-11-13T10:53:27Z) - Weakly-Supervised Aspect-Based Sentiment Analysis via Joint
Aspect-Sentiment Topic Embedding [71.2260967797055]
アスペクトベース感情分析のための弱教師付きアプローチを提案する。
We learn sentiment, aspects> joint topic embeddeds in the word embedding space。
次に、ニューラルネットワークを用いて単語レベルの識別情報を一般化する。
論文 参考訳(メタデータ) (2020-10-13T21:33:24Z) - Few-shot Visual Reasoning with Meta-analogical Contrastive Learning [141.2562447971]
本稿では,類似推論に頼って,数ショット(または低ショット)の視覚推論問題を解くことを提案する。
両領域の要素間の構造的関係を抽出し、類似学習と可能な限り類似するように強制する。
RAVENデータセット上での本手法の有効性を検証し, トレーニングデータが少ない場合, 最先端の手法より優れることを示す。
論文 参考訳(メタデータ) (2020-07-23T14:00:34Z) - On the Ambiguity of Rank-Based Evaluation of Entity Alignment or Link
Prediction Methods [27.27230441498167]
本稿では,知識グラフから情報を得る方法として,リンク予測とエンティティアライメント(Entity Alignment)の2つのファミリについて,より詳しく検討する。
特に、既存のスコアはすべて、異なるデータセット間で結果を比較するのにほとんど役に立たないことを実証する。
これは結果の解釈において様々な問題を引き起こしており、誤解を招く結論を裏付ける可能性がある。
論文 参考訳(メタデータ) (2020-02-17T12:26:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。