論文の概要: Teachers' Perspectives on the Use of AI Detection Tools: Insights from Ridge Regression Analysis
- arxiv url: http://arxiv.org/abs/2512.11823v1
- Date: Sun, 30 Nov 2025 16:08:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-21 14:22:08.6974
- Title: Teachers' Perspectives on the Use of AI Detection Tools: Insights from Ridge Regression Analysis
- Title(参考訳): AI検出ツールの活用に関する教師の視点:リッジ回帰分析からの考察
- Authors: Vicky P. Vital, Francis F. Balahadia, Maria Anna D. Cruz, Dolores D. Mallari, Juvy C. Grume, Erika M. Pineda, Jordan L. Salenga, Lloyd D. Feliciano, John Paul P. Miranda,
- Abstract要約: 本研究では,フィリピンの213人の教師が,学術的環境におけるAI検出ツールに対する認識について検討した。
これらのツールに対する教師の信頼、関心、意思決定に影響を与える要因に焦点を当てている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This study explores the perceptions of 213 Filipino teachers toward AI detection tools in academic settings. It focuses on the factors that influence teachers' trust, concerns, and decision-making regarding these tools. The research investigates how teachers' trust in AI detection tools affects their perceptions of fairness and decision-making in evaluating student outputs. It also explores how concerns about AI tools and social norms influence the relationship between trust and decision-making. Ridge Regression analysis was used to examine the relationships between the predictors and the dependent variable. The results revealed that trust in AI detection tools is the most significant predictor of perceived fairness and decision-making among teachers. Concerns about AI tools and social norms have weaker effects on teachers' perceptions. The study emphasized critical role of trust in shaping teachers' perceptions of AI detection tools. Teachers who trust these tools are more likely to view them as fair and effective. In contrast, concerns and social norms have a limited influence on perceptions and decision-making. For recommendations, training and institutional guidelines should emphasize how these tools work, their limitations, and best practices for their use. Striking a balance between policy enforcement and educator support is essential for fostering trust in AI detection technologies. Encouraging experienced users to share insights through communities of practice could enhance the adoption and effective use of AI detection tools in educational settings..
- Abstract(参考訳): 本研究では,フィリピンの213人の教師が,学術的環境におけるAI検出ツールに対する認識について検討した。
これらのツールに対する教師の信頼、関心、意思決定に影響を与える要因に焦点を当てている。
本研究は,AI検出ツールに対する教師の信頼が,学生のアウトプットを評価する上での公平さと意思決定の認識にどのように影響するかを検討する。
また、AIツールや社会的規範に対する懸念が、信頼と意思決定の関係にどのように影響するかについても検討している。
リッジ回帰解析を用いて予測値と依存変数の関係を調べた。
その結果,AI検出ツールの信頼性は,教師の公平さや意思決定の最も重要な予測要因であることが判明した。
AIツールや社会規範に関する懸念は、教師の認識に弱い影響を及ぼす。
この研究は、AI検出ツールに対する教師の認識を形作る上での信頼の重要性を強調した。
これらのツールを信頼する教師は、それらを公平で効果的なものとみなす傾向にある。
対照的に、関心や社会的規範は認識や意思決定に限られた影響を与えている。
推奨のためには、トレーニングと制度的ガイドラインは、これらのツールがどのように機能するか、その制限、そしてそれらの使用のためのベストプラクティスを強調するべきである。
政策執行と教育者支援のバランスを取ることは、AI検出技術の信頼性を高めるために不可欠である。
経験豊富なユーザに実践コミュニティを通じて洞察を共有するよう促すことは、教育環境におけるAI検出ツールの採用と効果的な利用を促進する可能性がある。
と。
関連論文リスト
- Evaluating AI-Powered Learning Assistants in Engineering Higher Education: Student Engagement, Ethical Challenges, and Policy Implications [0.2099922236065961]
本研究は、大規模R1公立大学の学部・環境工学コースで実施されているAIを活用した学習フレームワークである教育AIハブを評価する。
学生たちは、AIアシスタントのアクセシビリティと快適さを高く評価し、インストラクターやアシスタントの助けを求めるよりも、利用の容易さを報告している。
倫理的不確実性、特に制度政策と学術的整合性は、フルエンゲージメントの鍵となる障壁として現れた。
論文 参考訳(メタデータ) (2025-06-06T03:02:49Z) - Analyzing the Impact of AI Tools on Student Study Habits and Academic Performance [0.0]
この研究は、AIツールがパーソナライズされた学習、適応テスト調整をサポートし、リアルタイムの教室分析を提供する方法に焦点を当てている。
学生のフィードバックはこれらの特徴に対する強い支持を示し、GPAの増加とともに研究時間を大幅に短縮した。
これらのメリットにもかかわらず、AIへの過度依存や、AIと従来の教育方法を統合することの難しさといった課題も特定された。
論文 参考訳(メタデータ) (2024-12-03T04:51:57Z) - How Performance Pressure Influences AI-Assisted Decision Making [52.997197698288936]
我々は、プレッシャーと説明可能なAI(XAI)技術がAIアドバイステイク行動とどのように相互作用するかを示す。
我々の結果は、圧力とXAIの異なる組み合わせで複雑な相互作用効果を示し、AIアドバイスの行動を改善するか、悪化させるかのどちらかを示す。
論文 参考訳(メタデータ) (2024-10-21T22:39:52Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Generative AI in Education: A Study of Educators' Awareness, Sentiments, and Influencing Factors [2.217351976766501]
本研究は,AI言語モデルに対する教員の経験と態度について考察する。
学習スタイルと生成AIに対する態度の相関は見つからない。
CS教育者は、生成するAIツールの技術的理解にはるかに自信を持っているが、AI生成された仕事を検出する能力にこれ以上自信がない。
論文 参考訳(メタデータ) (2024-03-22T19:21:29Z) - Adoption of Artificial Intelligence in Schools: Unveiling Factors
Influencing Teachers Engagement [5.546987319988426]
学校で採用されるAIツールは、常に研究コミュニティの製品として考慮され、研究されるとは限らない。
学校における適応型学習プラットフォームの導入に影響を及ぼす包括的要因を測定するための信頼性の高い尺度を開発した。
追加の作業負荷、教師の所有と信頼の増大、支援メカニズムの生成、倫理的問題が最小化されることの保証は、学校でAIを採用する上でも不可欠である。
論文 参考訳(メタデータ) (2023-04-03T11:47:08Z) - Explainable Active Learning (XAL): An Empirical Study of How Local
Explanations Impact Annotator Experience [76.9910678786031]
本稿では、最近急増している説明可能なAI(XAI)のテクニックをアクティブラーニング環境に導入することにより、説明可能なアクティブラーニング(XAL)の新たなパラダイムを提案する。
本研究は,機械教育のインタフェースとしてのAI説明の利点として,信頼度校正を支援し,リッチな形式の教示フィードバックを可能にすること,モデル判断と認知作業負荷による潜在的な欠点を克服する効果を示す。
論文 参考訳(メタデータ) (2020-01-24T22:52:18Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。