論文の概要: The Silent Curriculum: How Does LLM Monoculture Shape Educational Content and Its Accessibility?
- arxiv url: http://arxiv.org/abs/2407.10371v1
- Date: Sat, 11 May 2024 12:02:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-22 12:49:16.712127
- Title: The Silent Curriculum: How Does LLM Monoculture Shape Educational Content and Its Accessibility?
- Title(参考訳): サイレントカリキュラム:LLMモノカルチャーは教育内容とアクセシビリティをどう形作るか?
- Authors: Aman Priyanshu, Supriti Vijay,
- Abstract要約: LLM(Large Language Models)は、従来の検索エンジンと比較して、前例のない便利な情報を提供する。
私たちはこれを「Silent Curriculum」と呼び、特に印象的な人口層(子供)に焦点を移している。
我々は、子どものストーリーテリング、職業性偏見、自己診断アノテーションをナビゲートする短い実験を通じて、この概念を解き放つ。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As Large Language Models (LLMs) ascend in popularity, offering information with unprecedented convenience compared to traditional search engines, we delve into the intriguing possibility that a new, singular perspective is being propagated. We call this the "Silent Curriculum," where our focus shifts towards a particularly impressionable demographic: children, who are drawn to the ease and immediacy of acquiring knowledge through these digital oracles. In this exploration, we delve into the sociocultural ramifications of LLMs, which, through their nuanced responses, may be subtly etching their own stereotypes, an algorithmic or AI monoculture. We hypothesize that the convergence of pre-training data, fine-tuning datasets, and analogous guardrails across models may have birthed a distinct cultural lens. We unpack this concept through a short experiment navigating children's storytelling, occupational-ethnic biases, and self-diagnosed annotations, to find that there exists strong cosine similarity (0.87) of biases across these models, suggesting a similar perspective of ethnic stereotypes in occupations. This paper invites a reimagining of LLMs' societal role, especially as the new information gatekeepers, advocating for a paradigm shift towards diversity-rich landscapes over unintended monocultures.
- Abstract(参考訳): LLM(Large Language Models)が普及し、従来の検索エンジンに比べて前例のない便利な情報を提供するにつれ、新たな特異な視点が普及しつつあるという興味深い可能性を探る。
私たちはこれを「サイレントカリキュラム(Silent Curriculum)」と呼び、特に印象的な人口統計学に焦点を移す。
本研究では, LLMの社会文化的影響を解明し, その微妙な応答を通じて, アルゴリズム的あるいはAI的なモノカルチャーである, 自作のステレオタイプを微妙にエッチングしている可能性がある。
我々は、事前学習データ、微調整データセット、および類似のガードレールの収束が、異なる文化的レンズを生み出した可能性があると仮定する。
この概念を、子どものストーリーテリング、職業性偏見、自己診断アノテーションをナビゲートする短い実験を通じて解き、これらのモデルに強いコサイン類似性(0.87)があることを発見し、職業における民族的ステレオタイプに関する同様の見解を示唆する。
本稿では,LLMの社会的役割,特に新しい情報ゲートキーパーの役割を再考し,意図しないモノカルチャーよりも多様性に富んだ風景へのパラダイムシフトを提唱する。
関連論文リスト
- Generative Monoculture in Large Language Models [17.164060958337032]
生成的モノカルチャーは、大きな言語モデル(LLM)で観察される行動である
本研究は,本書レビューとコード生成タスクの分析を通じて,生成モノカルチャーの有病率を実験的に実証する。
論文 参考訳(メタデータ) (2024-07-02T12:17:07Z) - See It from My Perspective: Diagnosing the Western Cultural Bias of Large Vision-Language Models in Image Understanding [78.88461026069862]
視覚言語モデル(VLM)は、多くの言語における画像に関するクエリに応答することができる。
我々は、画像理解における西洋の偏見を実証し、局所化する新しい研究を提案する。
論文 参考訳(メタデータ) (2024-06-17T15:49:51Z) - Self-Debiasing Large Language Models: Zero-Shot Recognition and
Reduction of Stereotypes [73.12947922129261]
ステレオタイピングを減らすために,大規模言語モデルのゼロショット機能を活用している。
自己嫌悪は、9つの異なる社会集団におけるステレオタイピングの度合いを著しく低下させることが示される。
この研究が、バイアス軽減のための他のゼロショット技術に関する調査をオープンにすることを願っている。
論文 参考訳(メタデータ) (2024-02-03T01:40:11Z) - Large language models cannot replace human participants because they
cannot portray identity groups [40.865099955752825]
我々は,大きな言語モデル (LLM) は,人口集団の表現の誤りとフラット化の両方を負うと論じている。
アイデンティティーがアイデンティティーを不可欠なものにする方法について、第3の考察について論じる。
全体としては、LLMが課題に関連のある人物を置き換えることを意図したユースケースに注意を喚起する。
論文 参考訳(メタデータ) (2024-02-02T21:21:06Z) - Finetuning an LLM on Contextual Knowledge of Classics for Q&A [0.0]
このプロジェクトは、クラシックの知識と人工知能の能力を統合する試みである。
本研究の目的は,文脈知識を正確に再現するだけでなく,一貫した「個性」を示すLLMを開発することである。
論文 参考訳(メタデータ) (2023-12-13T02:32:01Z) - On the steerability of large language models toward data-driven personas [98.9138902560793]
大規模言語モデル(LLM)は、特定のグループや集団の意見が不足している偏りのある応答を生成することが知られている。
本稿では, LLM を用いて特定の視点の制御可能な生成を実現するための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T19:01:13Z) - Democratizing Reasoning Ability: Tailored Learning from Large Language
Model [97.4921006089966]
そこで我々は,そのような推論能力をより小さなLMに蒸留する,適切な学習手法を提案する。
対話型多ラウンド学習パラダイムを構築することにより,理科教員としてのLLMの可能性を活用する。
より小さなLMの推論可能性を活用するために,学生が自作ミスから学習する動機付けを目的とした自己回帰学習を提案する。
論文 参考訳(メタデータ) (2023-10-20T07:50:10Z) - Localization vs. Semantics: Visual Representations in Unimodal and
Multimodal Models [57.08925810659545]
既存の視覚・言語モデルと視覚のみのモデルにおける視覚表現の比較分析を行う。
我々の経験的観察は、視覚・言語モデルがラベル予測タスクに優れていることを示唆している。
我々の研究は、視覚学習における言語の役割に光を当て、様々な事前学習モデルの実証的なガイドとして機能することを願っている。
論文 参考訳(メタデータ) (2022-12-01T05:00:18Z) - Easily Accessible Text-to-Image Generation Amplifies Demographic
Stereotypes at Large Scale [61.555788332182395]
危険で複雑なステレオタイプを増幅する機械学習モデルの可能性を検討する。
さまざまな通常のプロンプトがステレオタイプを生成しており、それらは単に特性、記述子、職業、オブジェクトに言及するプロンプトを含む。
論文 参考訳(メタデータ) (2022-11-07T18:31:07Z) - Whose Opinions Matter? Perspective-aware Models to Identify Opinions of
Hate Speech Victims in Abusive Language Detection [6.167830237917662]
異なるコミュニティから生まれる偏極的な意見をモデル化するための詳細な研究を提示する。
この情報に頼ることで、アノテータを同様の視点を共有するグループに分割できると考えています。
本稿では,オンライン虐待を特徴付けるためのサブカテゴリによって注釈付けされた,新しいリソース,多視点英語データセットを提案する。
論文 参考訳(メタデータ) (2021-06-30T08:35:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。