論文の概要: Opting Out of Generative AI: a Behavioral Experiment on the Role of Education in Perplexity AI Avoidance
- arxiv url: http://arxiv.org/abs/2507.07881v1
- Date: Thu, 10 Jul 2025 16:05:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-11 16:40:15.480514
- Title: Opting Out of Generative AI: a Behavioral Experiment on the Role of Education in Perplexity AI Avoidance
- Title(参考訳): 生成AIのオプトアウト:パープレキシティAI回避における教育の役割に関する行動実験
- Authors: Roberto Ulloa, Juhi Kulshrestha, Celina Kacperski,
- Abstract要約: 本研究は,形式教育の違いがCAIの回避に結びついているかどうかを考察する。
発見は、AI導入における教育の中心的役割と、AI関連の研究における自己選択バイアスの役割を浮き彫りにする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The rise of conversational AI (CAI), powered by large language models, is transforming how individuals access and interact with digital information. However, these tools may inadvertently amplify existing digital inequalities. This study investigates whether differences in formal education are associated with CAI avoidance, leveraging behavioral data from an online experiment (N = 1,636). Participants were randomly assigned to a control or an information-seeking task, either a traditional online search or a CAI (Perplexity AI). Task avoidance (operationalized as survey abandonment or providing unrelated responses during task assignment) was significantly higher in the CAI group (51%) compared to the search (30.9%) and control (16.8%) groups, with the highest CAI avoidance among participants with lower education levels (~74.4%). Structural equation modeling based on the theoretical framework UTAUT2 and LASSO regressions reveal that education is strongly associated with CAI avoidance, even after accounting for various cognitive and affective predictors of technology adoption. These findings underscore education's central role in shaping AI adoption and the role of self-selection biases in AI-related research, stressing the need for inclusive design to ensure equitable access to emerging technologies.
- Abstract(参考訳): 大規模な言語モデルを活用した会話型AI(CAI)の台頭は、個人がデジタル情報にアクセスし、対話する方法を変えつつある。
しかし、これらのツールは必然的に既存のデジタル不平等を増幅する可能性がある。
本研究では,オンライン実験(N=1,636)の行動データを利用して,形式的教育の違いとCAI回避との関連性を検討する。
参加者はランダムに、従来のオンライン検索またはCAI(Perplexity AI)のどちらかのコントロールや情報検索タスクに割り当てられた。
CAIグループ(30.9%)や管理グループ(16.8%)に比べて、CAIグループ(51%)ではタスク回避(調査放棄や非対応)が有意に高く、低い教育レベル(約74.4%)では最も高いCAI回避率を示した。
理論的枠組み UTAUT2 と LASSO 回帰に基づく構造方程式モデリングにより,教育がCAI の回避と強く結びついていることが明らかとなった。
これらの知見は、AIの採用形成における教育の中心的な役割と、AI関連の研究における自己選択バイアスの役割を強調し、新興技術への公平なアクセスを確保するための包括的設計の必要性を強調している。
関連論文リスト
- ChatGPT produces more "lazy" thinkers: Evidence of cognitive engagement decline [0.0]
本研究では,生成型人工知能(AI)ツールが学術書記作業における学生の認知活動に与える影響について検討した。
その結果,ChatGPT群ではコントロール群に比べて認知エンゲージメントスコアが有意に低かった。
これらの結果は、AI支援が認知的オフロードにつながる可能性があることを示唆している。
論文 参考訳(メタデータ) (2025-06-30T18:41:50Z) - Students' Reliance on AI in Higher Education: Identifying Contributing Factors [2.749898166276854]
本研究では,大学生のAI依存パターンに寄与する潜在的な要因について検討した。
適切な依存は、学生の自己効力、プログラミングリテラシー、認知の必要性に大きく関係している。
信頼度は、タスク後の信頼度とAIアシスタントとの満足度に有意な相関を示した。
論文 参考訳(メタデータ) (2025-06-16T17:55:26Z) - The AI Imperative: Scaling High-Quality Peer Review in Machine Learning [49.87236114682497]
AIによるピアレビューは、緊急の研究とインフラの優先事項になるべきだ、と私たちは主張する。
我々は、事実検証の強化、レビュアーのパフォーマンスの指導、品質改善における著者の支援、意思決定におけるAC支援におけるAIの具体的な役割を提案する。
論文 参考訳(メタデータ) (2025-06-09T18:37:14Z) - When Models Know More Than They Can Explain: Quantifying Knowledge Transfer in Human-AI Collaboration [79.69935257008467]
我々は,人間とAIの知識伝達能力に関する概念的かつ実験的フレームワークである知識統合と伝達評価(KITE)を紹介する。
最初の大規模人間実験(N=118)を行い,その測定を行った。
2段階のセットアップでは、まずAIを使って問題解決戦略を思いつき、その後独立してソリューションを実装し、モデル説明が人間の理解に与える影響を分離します。
論文 参考訳(メタデータ) (2025-06-05T20:48:16Z) - Evaluating the AI-Lab Intervention: Impact on Student Perception and Use of Generative AI in Early Undergraduate Computer Science Courses [0.0]
Generative AI(GenAI)はコンピュータサイエンス教育に急速に参入しつつある。
形式コースにおける道具使用の指針となる構造的足場の研究のギャップを伴う過信共存に関する懸念。
本研究は,「AI-Lab」の介入が大学生に与える影響について考察する。
論文 参考訳(メタデータ) (2025-04-30T18:12:42Z) - Synergizing Self-Regulation and Artificial-Intelligence Literacy Towards Future Human-AI Integrative Learning [92.34299949916134]
自己制御学習(SRL)と人工知能(AI)リテラシーは、人間とAIの対話学習を成功させる上で重要な能力となっている。
本研究では,4つの学習グループを明らかにするクラスタリング手法を用いて,1,704人の中国人大学生のデータを分析した。
論文 参考訳(メタデータ) (2025-03-31T13:41:21Z) - From G-Factor to A-Factor: Establishing a Psychometric Framework for AI Literacy [1.5031024722977635]
我々は、AIリテラシーを、教育、労働開発、および社会的エクイティに重要な意味を持つ、一貫性のある測定可能な構造として確立する。
研究1では、AIのインタラクションタスク間で44.16%のばらつきがある、支配的な潜伏因子("A-factor"と呼ばれる)を明らかにした。
研究2は、AIリテラシーの4つの重要な側面を調べることで測定ツールを洗練させた。
回帰分析では、認知能力(IQ)、教育的背景、AI以前の経験、トレーニング履歴など、AIリテラシーのいくつかの重要な予測要因を特定した。
論文 参考訳(メタデータ) (2025-03-16T14:51:48Z) - Analyzing the Impact of AI Tools on Student Study Habits and Academic Performance [0.0]
この研究は、AIツールがパーソナライズされた学習、適応テスト調整をサポートし、リアルタイムの教室分析を提供する方法に焦点を当てている。
学生のフィードバックはこれらの特徴に対する強い支持を示し、GPAの増加とともに研究時間を大幅に短縮した。
これらのメリットにもかかわらず、AIへの過度依存や、AIと従来の教育方法を統合することの難しさといった課題も特定された。
論文 参考訳(メタデータ) (2024-12-03T04:51:57Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。