論文の概要: Gender, Age, and Technology Education Influence the Adoption and
Appropriation of LLMs
- arxiv url: http://arxiv.org/abs/2310.06556v1
- Date: Tue, 10 Oct 2023 12:11:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-11 15:36:36.048517
- Title: Gender, Age, and Technology Education Influence the Adoption and
Appropriation of LLMs
- Title(参考訳): ジェンダー, 年齢, 技術教育がLLMの採用と活用に影響を及ぼす
- Authors: Fiona Draxler, Daniel Buschek, Mikke Tavast, Perttu H\"am\"al\"ainen,
Albrecht Schmidt, Juhi Kulshrestha, Robin Welsch
- Abstract要約: 大規模言語モデル(LLM)は、日々の生活の重要な活動にますます統合されつつある。
本研究では, 1,500人の米国市民を対象としたLCMの使用状況について検討した。
- 参考スコア(独自算出の注目度): 33.36152215322338
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Large Language Models (LLMs) such as ChatGPT have become increasingly
integrated into critical activities of daily life, raising concerns about
equitable access and utilization across diverse demographics. This study
investigates the usage of LLMs among 1,500 representative US citizens.
Remarkably, 42% of participants reported utilizing an LLM. Our findings reveal
a gender gap in LLM technology adoption (more male users than female users)
with complex interaction patterns regarding age. Technology-related education
eliminates the gender gap in our sample. Moreover, expert users are more likely
than novices to list professional tasks as typical application scenarios,
suggesting discrepancies in effective usage at the workplace. These results
underscore the importance of providing education in artificial intelligence in
our technology-driven society to promote equitable access to and benefits from
LLMs. We urge for both international replication beyond the US and longitudinal
observation of adoption.
- Abstract(参考訳): ChatGPTのような大規模言語モデル(LLM)は、日々の生活における重要な活動にますます統合され、多様な人口層における平等なアクセスと利用に関する懸念が高まっている。
本研究では,米国市民1,500人を対象に,llmの利用状況について調査した。
驚くべきことに、参加者の42%がllmの使用を報告している。
以上の結果から,LSM技術採用における男女差は,年齢に関する複雑な相互作用パターンがみられた。
テクノロジー関連の教育は、サンプルの男女格差を取り除きます。
さらに、専門家のユーザは、プロフェッショナルなタスクを典型的なアプリケーションシナリオとしてリストアップする初心者よりも、職場での効果的な利用の相違を示唆している。
これらの結果は、LLMの平等なアクセスと利益を促進するために、我々の技術主導型社会における人工知能の教育を提供することの重要性を強調している。
我々は、米国以外の国際的複製と、導入の経時的観察の両方を要請する。
関連論文リスト
- The Strong Pull of Prior Knowledge in Large Language Models and Its Impact on Emotion Recognition [74.04775677110179]
In-context Learning (ICL) は、Large Language Models (LLM) を用いた自然言語処理のための強力なパラダイムとして登場した。
LLMには、感情認識において強いが矛盾する先行性があり、その予測に影響を及ぼすことが示される。
以上の結果から,ICLをより大きなLCMで事前学習領域外の情動中心タスクに使用する場合,注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2024-03-25T19:07:32Z) - Rethinking Machine Unlearning for Large Language Models [87.85043572895296]
大規模言語モデル(LLM)の領域における機械学習の研究
このイニシアチブは、望ましくないデータの影響(機密情報や違法情報など)と関連するモデル機能を排除することを目的としている。
論文 参考訳(メタデータ) (2024-02-13T20:51:58Z) - Empowering Language Models with Active Inquiry for Deeper Understanding [31.11672018840381]
対話型エンゲージメントを備えた大規模言語モデルを実現するために設計されたLaMAI(Language Model with Active Inquiry)を紹介する。
LaMAIは、アクティブな学習技術を使用して、最も有意義な質問を提起し、動的双方向対話を育む。
様々な複雑なデータセットにわたる実証研究は、LaMAIの有効性を実証している。
論文 参考訳(メタデータ) (2024-02-06T05:24:16Z) - Large language models cannot replace human participants because they
cannot portray identity groups [40.865099955752825]
我々は,大きな言語モデル (LLM) は,人口集団の表現の誤りとフラット化の両方を負うと論じている。
アイデンティティーがアイデンティティーを不可欠なものにする方法について、第3の考察について論じる。
全体としては、LLMが課題に関連のある人物を置き換えることを意図したユースケースに注意を喚起する。
論文 参考訳(メタデータ) (2024-02-02T21:21:06Z) - Supervised Knowledge Makes Large Language Models Better In-context Learners [94.89301696512776]
大規模言語モデル(LLM)は、素早い工学を通して、文脈内学習能力の出現を示す。
自然言語理解と質問応答におけるLLMの一般化性と事実性の向上という課題は、まだ未解決のままである。
本研究では, LLM の信頼性を高める枠組みを提案する。1) 分布外データの一般化,2) 差別モデルによる LLM のメリットの解明,3) 生成タスクにおける幻覚の最小化。
論文 参考訳(メタデータ) (2023-12-26T07:24:46Z) - Prevalence and prevention of large language model use in crowd work [11.554258761785512]
大規模言語モデル (LLM) の使用は, 集団作業者の間で広く普及していることを示す。
目標緩和戦略は, LLM の使用量を大幅に削減するが, 排除はしない。
論文 参考訳(メタデータ) (2023-10-24T09:52:09Z) - The Unequal Opportunities of Large Language Models: Revealing
Demographic Bias through Job Recommendations [5.898806397015801]
大規模言語モデル(LLM)における人口統計バイアスの分析と比較のための簡易な手法を提案する。
本稿では,ChatGPTとLLaMAの交差バイアスを計測し,本手法の有効性を示す。
両モデルとも、メキシコ労働者の低賃金雇用を一貫して示唆するなど、さまざまな人口統計学的アイデンティティに対する偏見を識別する。
論文 参考訳(メタデータ) (2023-08-03T21:12:54Z) - Aligning Large Language Models with Human: A Survey [53.6014921995006]
広範囲なテキストコーパスで訓練されたLarge Language Models (LLM) は、幅広い自然言語処理(NLP)タスクの先導的なソリューションとして登場した。
その顕著な性能にもかかわらず、これらのモデルは、人間の指示を誤解したり、偏見のあるコンテンツを生成したり、事実的に誤った情報を生成するといった、ある種の制限を受ける傾向にある。
本調査では,これらのアライメント技術の概要について概観する。
論文 参考訳(メタデータ) (2023-07-24T17:44:58Z) - Artificial Artificial Artificial Intelligence: Crowd Workers Widely Use
Large Language Models for Text Production Tasks [12.723777984461693]
大型言語モデル(LLM)は注目すべきデータアノテータである。
クラウドソーシングは、人間のアノテーションを得るための重要で安価な方法であり、それ自体はLLMの影響を受けているかもしれない。
作業完了時には,33~46%がLLMを使用していた。
論文 参考訳(メタデータ) (2023-06-13T16:46:24Z) - Understanding the Usability Challenges of Machine Learning In
High-Stakes Decision Making [67.72855777115772]
機械学習(ML)は、多種多様な成長を続ける一連のドメインに適用されている。
多くの場合、MLやデータサイエンスの専門知識を持たないドメインの専門家は、ML予測を使用してハイステークな意思決定を行うように求められます。
児童福祉スクリーニングにおけるMLユーザビリティの課題について,児童福祉スクリーニング者との一連のコラボレーションを通じて検討する。
論文 参考訳(メタデータ) (2021-03-02T22:50:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。