論文の概要: Gender, Age, and Technology Education Influence the Adoption and
Appropriation of LLMs
- arxiv url: http://arxiv.org/abs/2310.06556v1
- Date: Tue, 10 Oct 2023 12:11:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-11 15:36:36.048517
- Title: Gender, Age, and Technology Education Influence the Adoption and
Appropriation of LLMs
- Title(参考訳): ジェンダー, 年齢, 技術教育がLLMの採用と活用に影響を及ぼす
- Authors: Fiona Draxler, Daniel Buschek, Mikke Tavast, Perttu H\"am\"al\"ainen,
Albrecht Schmidt, Juhi Kulshrestha, Robin Welsch
- Abstract要約: 大規模言語モデル(LLM)は、日々の生活の重要な活動にますます統合されつつある。
本研究では, 1,500人の米国市民を対象としたLCMの使用状況について検討した。
- 参考スコア(独自算出の注目度): 33.36152215322338
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Large Language Models (LLMs) such as ChatGPT have become increasingly
integrated into critical activities of daily life, raising concerns about
equitable access and utilization across diverse demographics. This study
investigates the usage of LLMs among 1,500 representative US citizens.
Remarkably, 42% of participants reported utilizing an LLM. Our findings reveal
a gender gap in LLM technology adoption (more male users than female users)
with complex interaction patterns regarding age. Technology-related education
eliminates the gender gap in our sample. Moreover, expert users are more likely
than novices to list professional tasks as typical application scenarios,
suggesting discrepancies in effective usage at the workplace. These results
underscore the importance of providing education in artificial intelligence in
our technology-driven society to promote equitable access to and benefits from
LLMs. We urge for both international replication beyond the US and longitudinal
observation of adoption.
- Abstract(参考訳): ChatGPTのような大規模言語モデル(LLM)は、日々の生活における重要な活動にますます統合され、多様な人口層における平等なアクセスと利用に関する懸念が高まっている。
本研究では,米国市民1,500人を対象に,llmの利用状況について調査した。
驚くべきことに、参加者の42%がllmの使用を報告している。
以上の結果から,LSM技術採用における男女差は,年齢に関する複雑な相互作用パターンがみられた。
テクノロジー関連の教育は、サンプルの男女格差を取り除きます。
さらに、専門家のユーザは、プロフェッショナルなタスクを典型的なアプリケーションシナリオとしてリストアップする初心者よりも、職場での効果的な利用の相違を示唆している。
これらの結果は、LLMの平等なアクセスと利益を促進するために、我々の技術主導型社会における人工知能の教育を提供することの重要性を強調している。
我々は、米国以外の国際的複製と、導入の経時的観察の両方を要請する。
関連論文リスト
- Persuasion with Large Language Models: a Survey [49.86930318312291]
大規模言語モデル (LLM) は説得力のあるコミュニケーションに新たな破壊的可能性を生み出している。
政治、マーケティング、公衆衛生、電子商取引、慈善事業などの分野では、LLMシステムズは既に人間レベルや超人的説得力を達成している。
LLMをベースとした説得の現在と将来の可能性は、倫理的・社会的リスクを著しく引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-11T10:05:52Z) - Are You Human? An Adversarial Benchmark to Expose LLMs [2.6528263069045126]
LLM(Large Language Models)は、会話中に人間を偽装する警告機能を実証している。
LLMインポスタをリアルタイムに公開するための課題として設計されたテキストベースのプロンプトを評価する。
論文 参考訳(メタデータ) (2024-10-12T15:33:50Z) - Secret Use of Large Language Model (LLM) [25.452542727215178]
大規模言語モデル(LLM)は、AI使用の透明性に対する責任を分散化している。
本研究は,LLMの秘密利用の背景にある文脈と原因について検討した。
このような秘密行動は、特定のタスクによって引き起こされることが多く、ユーザ間での人口動態や人格差を超越する。
論文 参考訳(メタデータ) (2024-09-28T20:31:53Z) - AI Meets the Classroom: When Does ChatGPT Harm Learning? [0.0]
我々は,生成型AI,特に大規模言語モデル(LLM)がプログラミングクラスにおける学習に与える影響について検討する。
LLMの使用が学習結果に肯定的,否定的な影響を及ぼす可能性が3つの研究で示された。
論文 参考訳(メタデータ) (2024-08-29T17:07:46Z) - Modulating Language Model Experiences through Frictions [56.17593192325438]
言語モデルの過度な消費は、短期において未確認エラーを伝播し、長期的な批判的思考のために人間の能力を損なうリスクを出力する。
行動科学の介入にインスパイアされた言語モデル体験のための選択的摩擦を提案し,誤用を抑える。
論文 参考訳(メタデータ) (2024-06-24T16:31:11Z) - The GPT Surprise: Offering Large Language Model Chat in a Massive Coding Class Reduced Engagement but Increased Adopters Exam Performances [26.688772122455745]
大規模言語モデル(LLM)は、幅広い学習経験において急速に採用されている。
我々は,146カ国から5,831人の学生を対象に,大規模ランダム化制御試験を行った。
受験者, 受験者, 受験者, 受験者に対して, GPT-4の広告が有意な減少を招いた。
論文 参考訳(メタデータ) (2024-04-25T15:39:22Z) - Supervised Knowledge Makes Large Language Models Better In-context Learners [94.89301696512776]
大規模言語モデル(LLM)は、素早い工学を通して、文脈内学習能力の出現を示す。
自然言語理解と質問応答におけるLLMの一般化性と事実性の向上という課題は、まだ未解決のままである。
本研究では, LLM の信頼性を高める枠組みを提案する。1) 分布外データの一般化,2) 差別モデルによる LLM のメリットの解明,3) 生成タスクにおける幻覚の最小化。
論文 参考訳(メタデータ) (2023-12-26T07:24:46Z) - Aligning Large Language Models with Human: A Survey [53.6014921995006]
広範囲なテキストコーパスで訓練されたLarge Language Models (LLM) は、幅広い自然言語処理(NLP)タスクの先導的なソリューションとして登場した。
その顕著な性能にもかかわらず、これらのモデルは、人間の指示を誤解したり、偏見のあるコンテンツを生成したり、事実的に誤った情報を生成するといった、ある種の制限を受ける傾向にある。
本調査では,これらのアライメント技術の概要について概観する。
論文 参考訳(メタデータ) (2023-07-24T17:44:58Z) - Artificial Artificial Artificial Intelligence: Crowd Workers Widely Use
Large Language Models for Text Production Tasks [12.723777984461693]
大型言語モデル(LLM)は注目すべきデータアノテータである。
クラウドソーシングは、人間のアノテーションを得るための重要で安価な方法であり、それ自体はLLMの影響を受けているかもしれない。
作業完了時には,33~46%がLLMを使用していた。
論文 参考訳(メタデータ) (2023-06-13T16:46:24Z) - Understanding the Usability Challenges of Machine Learning In
High-Stakes Decision Making [67.72855777115772]
機械学習(ML)は、多種多様な成長を続ける一連のドメインに適用されている。
多くの場合、MLやデータサイエンスの専門知識を持たないドメインの専門家は、ML予測を使用してハイステークな意思決定を行うように求められます。
児童福祉スクリーニングにおけるMLユーザビリティの課題について,児童福祉スクリーニング者との一連のコラボレーションを通じて検討する。
論文 参考訳(メタデータ) (2021-03-02T22:50:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。