論文の概要: Women Worry, Men Adopt: How Gendered Perceptions Shape the Use of Generative AI
- arxiv url: http://arxiv.org/abs/2601.03880v1
- Date: Wed, 07 Jan 2026 12:47:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 02:15:23.558847
- Title: Women Worry, Men Adopt: How Gendered Perceptions Shape the Use of Generative AI
- Title(参考訳): 女性を悩ませ、男性が採用する: ジェンダーの知覚が生成AIの利用を形作る
- Authors: Fabian Stephany, Jedrzej Duszynski,
- Abstract要約: 生成人工知能(GenAI)は急速に普及しているが、その採用は著しく不平等だ。
我々は,女性が男性よりもGenAIを採用する頻度が著しく低いことを示し,その社会的リスクが異なることを認識している。
メンタルヘルス、プライバシ、気候影響、労働市場破壊に関する懸念を捉えた総合指標を構築した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative artificial intelligence (GenAI) is diffusing rapidly, yet its adoption is strikingly unequal. Using nationally representative UK survey data from 2023 to 2024, we show that women adopt GenAI substantially less often than men because they perceive its societal risks differently. We construct a composite index capturing concerns about mental health, privacy, climate impact, and labor market disruption. This index explains between 9 and 18 percent of the variation in GenAI adoption and ranks among the strongest predictors for women across all age groups, surpassing digital literacy and education for young women. Intersectional analyses show that the largest disparities arise among younger, digitally fluent individuals with high societal risk concerns, where gender gaps in personal use exceed 45 percentage points. Using a synthetic twin panel design, we show that increased optimism about AI's societal impact raises GenAI use among young women from 13 percent to 33 percent, substantially narrowing the gender divide. These findings indicate that gendered perceptions of AI's social and ethical consequences, rather than access or capability, are the primary drivers of unequal GenAI adoption, with implications for productivity, skill formation, and economic inequality in an AI enabled economy.
- Abstract(参考訳): 生成人工知能(GenAI)は急速に普及しているが、その採用は著しく不平等だ。
2023年から2024年までの英国における調査データから、女性は、社会的リスクが異なるとして、男性よりもかなり少ない頻度でGenAIを採用することを示した。
メンタルヘルス、プライバシ、気候影響、労働市場破壊に関する懸念を捉えた総合指標を構築した。
この指数は、GenAI採用の9~18%のバリエーションを説明し、すべての年齢層で女性にとって最強の予測者であり、デジタルリテラシーや若い女性の教育を上回っている。
インターセクション分析では、社会的リスクの高い若年者で、個人使用における性別格差が45パーセントを超える場合に、最も大きな格差が生じることが示された。
人工双生児パネルの設計を用いて、AIの社会的影響に対する楽観性が、若い女性のGenAI使用率を13%から33%に引き上げ、男女格差を大幅に狭めることを示した。
これらの結果は、AIが実現した経済における生産性、スキル形成、経済的不平等に影響を及ぼすとともに、アクセスや能力よりも、AIの社会的および倫理的な結果に対する性的な認識が、不平等なGenAI採用の原動力であることを示している。
関連論文リスト
- Generative AI Practices, Literacy, and Divides: An Empirical Analysis in the Italian Context [32.495879271249414]
本研究は、イタリアにおけるGenAI導入、利用パターン、リテラシーに関する総合的な実証的マッピングを初めて提示する。
以上の結果から,情緒的サポートや医療アドバイスなどの敏感なタスクを含む,仕事と個人利用の両方に広く採用されていることが明らかとなった。
女性の半分がGenAIを採用する可能性があり、男性よりも使用頻度が低い、有意義な男女格差を特定した。
論文 参考訳(メタデータ) (2025-12-03T11:01:28Z) - Reduced AI Acceptance After the Generative AI Boom: Evidence From a Two-Wave Survey Study [40.26767449635043]
本稿では,ChatGPTのローンチ前後におけるAIに対する公的な態度の変化について検討する。
AIが「全く受け入れられない」と回答した回答者の割合は23%から30%に増加した。
これらの変化は、教育、言語、性別格差の拡大の観点から、既存の社会的不平等を増大させてきた。
論文 参考訳(メタデータ) (2025-10-27T17:47:58Z) - Adultification Bias in LLMs and Text-to-Image Models [55.02903075972816]
若い女性の人種やジェンダーの軸に沿った偏見について研究する。
我々は「文化バイアス」に焦点を当てており、黒人の女の子は白人の仲間よりも、より排他的で、性的に親密で、教育可能であると推定される現象である。
論文 参考訳(メタデータ) (2025-06-08T21:02:33Z) - Perceptions of Discriminatory Decisions of Artificial Intelligence: Unpacking the Role of Individual Characteristics [0.0]
個人差(デジタル自己効力性、技術的知識、平等への信念、政治的イデオロギー)は、AIの成果に対する認識と関連している。
デジタル自己効力と技術的知識は、AIに対する態度と肯定的に関連している。
リベラルイデオロギーは、結果信頼、より否定的な感情、より大きな懐疑主義と負の関連がある。
論文 参考訳(メタデータ) (2024-10-17T06:18:26Z) - "I Am the One and Only, Your Cyber BFF": Understanding the Impact of GenAI Requires Understanding the Impact of Anthropomorphic AI [55.99010491370177]
我々は、人為的AIの社会的影響をマッピングしない限り、生成AIの社会的影響を徹底的にマッピングすることはできないと論じる。
人為的AIシステムは、人間のように知覚されるアウトプットを生成する傾向が強まっている。
論文 参考訳(メタデータ) (2024-10-11T04:57:41Z) - Bias in Generative AI [2.5830293457323266]
本研究では、AIジェネレータの潜在的なバイアスを調べるために、3つの一般的な生成人工知能(AI)ツールによって生成された画像を分析した。
3つのAIジェネレータはすべて、女性とアフリカ系アメリカ人に対する偏見を示しました。
女性はより笑顔と幸福で若く描かれ、男性はより中立な表情と怒りで年上のように描かれていた。
論文 参考訳(メタデータ) (2024-03-05T07:34:41Z) - Social AI Improves Well-Being Among Female Young Adults [0.5439020425819]
ChatGPTのような言語モデルの台頭は、新しいエンターテイメントの形式としてSocial AIを導入した。
本稿では,これらの相互作用がユーザの社会的・精神的健康に及ぼす影響について検討する。
論文 参考訳(メタデータ) (2023-11-12T16:44:43Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Towards Understanding Gender-Seniority Compound Bias in Natural Language
Generation [64.65911758042914]
本研究では,事前学習したニューラルジェネレーションモデルにおける性別バイアスの程度に,高齢者がどのような影響を及ぼすかを検討する。
以上の結果から, GPT-2は, 両領域において, 女性を中年, 男性を中年として考えることにより, 偏見を増幅することが示された。
以上の結果から, GPT-2を用いて構築したNLPアプリケーションは, プロの能力において女性に害を与える可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-19T20:05:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。