論文の概要: Large Language Model Use Impact Locus of Control
- arxiv url: http://arxiv.org/abs/2505.11406v1
- Date: Fri, 16 May 2025 16:16:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-19 14:36:15.573651
- Title: Large Language Model Use Impact Locus of Control
- Title(参考訳): 大規模言語モデル利用による影響領域制御
- Authors: Jenny Xiyu Fu, Brennan Antone, Kowe Kadoma, Malte Jung,
- Abstract要約: 本稿では,AIとの共同筆記が人々のコントロールの軌跡に与える影響について考察する。
雇用状況は、利用者のAIへの依存とコントロールの軌跡を形作る上で重要な役割を担っていることがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As AI tools increasingly shape how we write, they may also quietly reshape how we perceive ourselves. This paper explores the psychological impact of co-writing with AI on people's locus of control. Through an empirical study with 462 participants, we found that employment status plays a critical role in shaping users' reliance on AI and their locus of control. Current results demonstrated that employed participants displayed higher reliance on AI and a shift toward internal control, while unemployed users tended to experience a reduction in personal agency. Through quantitative results and qualitative observations, this study opens a broader conversation about AI's role in shaping personal agency and identity.
- Abstract(参考訳): AIツールが文章の書き方をますます形作るにつれ、自分たちがどう認識しているかをひっそりと変えてしまうかもしれません。
本稿では,AIとの共同筆記が人々のコントロールの軌跡に与える影響について考察する。
462人の参加者を対象にした実証研究により,AIとコントロールの軌跡へのユーザの信頼を形作る上で,雇用状況が重要な役割を担っていることがわかった。
その結果、採用参加者はAIへの依存度が高く、内部統制へのシフトが見られたが、失業者は個人エージェントの削減を経験する傾向にあった。
定量的な結果と質的な観察を通して、この研究は、パーソナルエージェンシーとアイデンティティを形成する上でのAIの役割について、より広範な議論を開いている。
関連論文リスト
- Let people fail! Exploring the influence of explainable virtual and robotic agents in learning-by-doing tasks [45.23431596135002]
本研究は,古典的対パートナー意識による説明が学習作業中の人間の行動とパフォーマンスに与える影響を比較検討した。
その結果, パートナー意識による説明は, 関係する人工エージェントの種類によって, 参加者に異なる影響を及ぼした。
論文 参考訳(メタデータ) (2024-11-15T13:22:04Z) - How Performance Pressure Influences AI-Assisted Decision Making [57.53469908423318]
我々は、プレッシャーと説明可能なAI(XAI)技術がAIアドバイステイク行動とどのように相互作用するかを示す。
我々の結果は、圧力とXAIの異なる組み合わせで複雑な相互作用効果を示し、AIアドバイスの行動を改善するか、悪化させるかのどちらかを示す。
論文 参考訳(メタデータ) (2024-10-21T22:39:52Z) - AI-Tutoring in Software Engineering Education [0.7631288333466648]
我々は,GPT-3.5-TurboモデルをAI-TutorとしてAPASアルテミスに組み込むことで,探索的なケーススタディを行った。
この発見は、タイムリーなフィードバックやスケーラビリティといった利点を浮き彫りにしている。
しかし,AI-Tutor を用いた場合,一般的な応答や学習進行抑制に対する学生の懸念も明らかであった。
論文 参考訳(メタデータ) (2024-04-03T08:15:08Z) - Beyond Recommender: An Exploratory Study of the Effects of Different AI
Roles in AI-Assisted Decision Making [48.179458030691286]
Recommender、Analyzer、Devil's Advocateの3つのAIの役割について検討する。
以上の結果から,各役割のタスクパフォーマンス,信頼性の適切性,ユーザエクスペリエンスにおける長所と短所が明らかとなった。
これらの洞察は、異なる状況に応じて適応的な機能的役割を持つAIアシスタントを設計する上で、貴重な意味を提供する。
論文 参考訳(メタデータ) (2024-03-04T07:32:28Z) - Analyzing Character and Consciousness in AI-Generated Social Content: A
Case Study of Chirper, the AI Social Network [0.0]
この研究はAIの振る舞いを包括的に調査し、多様な設定がチャーパーの反応に与える影響を分析している。
一連の認知テストを通じて、この研究はチャーパーズの自己認識とパターン認識の能力を評価する。
この研究の興味深い側面は、チャーパーのハンドルやパーソナリティのタイプがパフォーマンスに与える影響を探ることである。
論文 参考訳(メタデータ) (2023-08-30T15:40:18Z) - The Future of AI-Assisted Writing [0.0]
我々は、情報検索レンズ(プル・アンド・プッシュ)を用いて、そのようなツールの比較ユーザスタディを行う。
我々の研究結果によると、ユーザーは執筆におけるAIのシームレスな支援を歓迎している。
ユーザはAI支援の書き込みツールとのコラボレーションも楽しんだが、オーナシップの欠如を感じなかった。
論文 参考訳(メタデータ) (2023-06-29T02:46:45Z) - The AI Ghostwriter Effect: When Users Do Not Perceive Ownership of
AI-Generated Text But Self-Declare as Authors [42.72188284211033]
パーソナライズされた言語生成のためのヒューマンAIコラボレーションにおけるオーサシップとオーサシップについて検討する。
AIゴーストライター効果: ユーザは自分自身をAI生成テキストの所有者や作者とはみなさない。
著者の枠組みに適応するための基盤を構築するために,心理学的所有権と人間とAIの相互作用との関連性について考察する。
論文 参考訳(メタデータ) (2023-03-06T16:53:12Z) - Knowing About Knowing: An Illusion of Human Competence Can Hinder
Appropriate Reliance on AI Systems [13.484359389266864]
本稿では、Dunning-Kruger Effect(DKE)がAIシステムへの適切な依存を妨げているかどうかを論じる。
DKEは、能力の低い個人が自身のスキルやパフォーマンスを過大評価しているため、メタ認知バイアスである。
その結果、パフォーマンスを過大評価する参加者は、AIシステムへの信頼度が低い傾向にあることがわかった。
論文 参考訳(メタデータ) (2023-01-25T14:26:10Z) - Understanding the Role of Human Intuition on Reliance in Human-AI
Decision-Making with Explanations [44.01143305912054]
意思決定者の直感がAI予測と説明の使用に与える影響について検討する。
以上の結果から,AIの予測と説明に関する3種類の直観が明らかになった。
これらの経路を用いて、なぜ機能に基づく説明が参加者の決定結果を改善しなかったのかを説明し、AIへの依存度を高めた。
論文 参考訳(メタデータ) (2023-01-18T01:33:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。