論文の概要: Perceptions of AI-CBT: Trust and Barriers in Chinese Postgrads
- arxiv url: http://arxiv.org/abs/2602.03852v1
- Date: Fri, 19 Dec 2025 16:04:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-09 02:03:42.449202
- Title: Perceptions of AI-CBT: Trust and Barriers in Chinese Postgrads
- Title(参考訳): AI-CBTの認識:中国の大学院生の信頼と障壁
- Authors: Chan-in Sio, Alex Mann, Lingxi Fan, Andrew Cheung, Lik-hang Lee,
- Abstract要約: 大学院生の精神的幸福はますます懸念されているが、スケーラブルなサポートの採用は相変わらず不公平である。
本研究では,中国の10人の大学院生を対象に,AI-CBTチャットボットの認識と経験について検討した。
- 参考スコア(独自算出の注目度): 5.569740128030577
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The mental well-being of graduate students is an increasing concern, yet the adoption of scalable support remains uneven. Artificial intelligence-powered cognitive behavioral therapy chatbots (AI-CBT) offer low barrier help, but little is known about how Chinese postgraduates perceive and use them. This qualitative study explored perceptions and experiences of AI-CBT chatbots among ten Chinese graduate students recruited through social media. Semi-structured Zoom interviews were conducted and analyzed using reflexive thematic analysis, with the Health Belief Model (HBM) and the Theory of Planned Behavior (TPB) as sensitizing frameworks. The findings indicate a cautious openness to AI-CBT chatbots: perceived usefulness and 24/7 access supported favorable attitudes, while data privacy, emotional safety, and uncertainty about `fit' for complex problems restricted the intention to use. Social norms (e.g., stigma and peer views) and perceived control (digital literacy, language quality) further shaped adoption. The study offers context-specific information to guide the culturally sensitive design, communication, and deployment of AI mental well-being tools for student populations in China and outlines the design implications around transparency, safeguards, and graduated care pathways.
- Abstract(参考訳): 大学院生の精神的幸福はますます懸念されているが、スケーラブルなサポートの採用は相変わらず不公平である。
人工知能を利用した認知行動療法チャットボット(AI-CBT)は障壁を低くするが、中国の大学院生がそれをどのように認識し利用しているかは分かっていない。
この質的研究は、ソーシャルメディアを通じて採用された10人の中国大学院生のAI-CBTチャットボットの認識と経験を調査した。
HBM(Health Belief Model)とTPB(Theory of Planned Behavior)を併用して,反射的テーマ解析を用いて半構造化Zoomインタビューを実施し,分析した。
この結果は、AI-CBTチャットボットに対する慎重な開放性を示している: 有用性と24/7アクセスは好ましい態度を支持し、一方、データプライバシ、感情的安全性、複雑な問題に対する'フィット'に関する不確実性は、使用意図を制限した。
社会的規範(例えば、スティグマ、ピアビュー)と、コントロール(デジタルリテラシー、言語品質)の認識は、さらなる採用を形作る。
この研究は、文化に敏感なデザイン、コミュニケーション、中国の学生のためのAIメンタルヘルスツールの展開を導くために、コンテキスト固有の情報を提供し、透明性、安全保護、卒業ケアパスに関する設計上の意味を概説している。
関連論文リスト
- ChatGPT-5 in Secondary Education: A Mixed-Methods Analysis of Student Attitudes, AI Anxiety, and Hallucination-Aware Use [0.0]
テクノロジー」講座の8時間介入におけるChatGPT-5の活用
学生は情報探索、CV生成、文書とビデオの要約、画像生成、クイズ生成、年齢に応じた説明などに従事した。
幻覚に遭遇した後、多くの学生は、既に知識を持っている領域にAIの使用を制限すると報告した。
論文 参考訳(メタデータ) (2025-11-30T19:28:48Z) - A Comprehensive Review of Datasets for Clinical Mental Health AI Systems [55.67299586253951]
本稿では,AIを活用した臨床アシスタントの訓練・開発に関連する臨床精神保健データセットの総合的調査を行う。
本調査では, 縦断データの欠如, 文化・言語表現の制限, 一貫性のない収集・注釈基準, 合成データのモダリティの欠如など, 重要なギャップを明らかにした。
論文 参考訳(メタデータ) (2025-08-13T13:42:35Z) - ChatGPT produces more "lazy" thinkers: Evidence of cognitive engagement decline [0.0]
本研究では,生成型人工知能(AI)ツールが学術書記作業における学生の認知活動に与える影響について検討した。
その結果,ChatGPT群ではコントロール群に比べて認知エンゲージメントスコアが有意に低かった。
これらの結果は、AI支援が認知的オフロードにつながる可能性があることを示唆している。
論文 参考訳(メタデータ) (2025-06-30T18:41:50Z) - "I Said Things I Needed to Hear Myself": Peer Support as an Emotional, Organisational, and Sociotechnical Practice in Singapore [1.534667887016089]
本稿ではシンガポールの20人の同志とのインタビュー研究から得られた知見を報告する。
参加者がピアサポートを開始、実行、維持し、モチベーション、感情的な労働力、そして彼らのプラクティスを形作る社会文化的側面を強調します。
メンタルヘルスにおける信頼性と文脈に敏感なAIの設計について提案する。
論文 参考訳(メタデータ) (2025-06-11T03:17:31Z) - Student Perspectives on the Benefits and Risks of AI in Education [0.49157446832511503]
近年,人工知能(AI)を用いたチャットボットの教育的利用が増加している。
これらの技術の採用は、学術的完全性、生徒が個別に問題解決する能力、潜在的なバイアスに影響を及ぼす懸念を提起している。
学生の視点や経験をよりよく理解するために,米国の大公立大学で調査を行った。
論文 参考訳(メタデータ) (2025-05-04T17:36:11Z) - Towards Privacy-aware Mental Health AI Models: Advances, Challenges, and Opportunities [58.61680631581921]
メンタルヘルス障害は、深い個人的・社会的負担を生じさせるが、従来の診断はリソース集約的でアクセシビリティが制限される。
本稿では、これらの課題を考察し、匿名化、合成データ、プライバシー保護トレーニングを含む解決策を提案する。
臨床的な意思決定をサポートし、メンタルヘルスの結果を改善する、信頼できるプライバシを意識したAIツールを進化させることを目標としている。
論文 参考訳(メタデータ) (2025-02-01T15:10:02Z) - CBT-Bench: Evaluating Large Language Models on Assisting Cognitive Behavior Therapy [67.23830698947637]
認知行動療法(CBT)支援の体系的評価のための新しいベンチマークであるCBT-BENCHを提案する。
我々は, CBT-BENCHにおける3段階の課題を含む: I: 基本的CBT知識獲得, 複数選択質問のタスク; II: 認知的モデル理解, 認知的歪み分類, 主根的信念分類, きめ細かい中核信念分類のタスク; III: 治療的応答生成, CBTセラピーセッションにおける患者音声に対する応答生成のタスク。
実験結果から,LLMはCBT知識のリサイティングに優れるが,複雑な実世界のシナリオでは不十分であることが示唆された。
論文 参考訳(メタデータ) (2024-10-17T04:52:57Z) - Enhancing Mental Health Support through Human-AI Collaboration: Toward Secure and Empathetic AI-enabled chatbots [0.0]
本稿では、スケーラブルなソリューションとしてのAI対応チャットボットの可能性について検討する。
メンタルヘルスの文脈で共感的で有意義な反応を提供する能力を評価する。
本稿では,データプライバシを保証し,バイアスを低減し,臨床医による継続的検証を統合して応答品質を向上させるためのフェデレート学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-17T20:49:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。