論文の概要: Musical ethnocentrism in Large Language Models
- arxiv url: http://arxiv.org/abs/2501.13720v1
- Date: Thu, 23 Jan 2025 14:50:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-24 15:59:10.869306
- Title: Musical ethnocentrism in Large Language Models
- Title(参考訳): 大規模言語モデルにおける音楽的民族主義
- Authors: Anna Kruspe,
- Abstract要約: 大規模言語モデル(LLM)における音楽バイアスの分析に向けての第一歩を踏み出す。
我々は、各国の音楽文化の様々な側面を数値的に評価するようLLMに求めている。
両実験とも,西洋音楽文化に対するLLMの強い嗜好が示唆された。
- 参考スコア(独自算出の注目度): 1.4589372436314496
- License:
- Abstract: Large Language Models (LLMs) reflect the biases in their training data and, by extension, those of the people who created this training data. Detecting, analyzing, and mitigating such biases is becoming a focus of research. One type of bias that has been understudied so far are geocultural biases. Those can be caused by an imbalance in the representation of different geographic regions and cultures in the training data, but also by value judgments contained therein. In this paper, we make a first step towards analyzing musical biases in LLMs, particularly ChatGPT and Mixtral. We conduct two experiments. In the first, we prompt LLMs to provide lists of the "Top 100" musical contributors of various categories and analyze their countries of origin. In the second experiment, we ask the LLMs to numerically rate various aspects of the musical cultures of different countries. Our results indicate a strong preference of the LLMs for Western music cultures in both experiments.
- Abstract(参考訳): 大規模言語モデル(LLM)は、トレーニングデータのバイアスを反映し、拡張によって、このトレーニングデータを開発した人々のバイアスを反映します。
このようなバイアスの検出、分析、緩和が研究の焦点となっている。
これまで検討されてきたバイアスの1つは、地理的文化的バイアスである。
これらは、訓練データにおける異なる地域や文化の表現の不均衡や、それに含まれる価値判断によっても引き起こされる。
本稿では,LLMにおける音楽バイアス,特にChatGPTとMixtralを解析するための第一歩について述べる。
私たちは2つの実験を行います。
まず,LLMに,様々なカテゴリーの「トップ100」音楽コントリビュータのリストを提供するように促し,その起源の国を分析した。
第2の実験では、各国の音楽文化の様々な側面を数値的に評価するようLLMに求めている。
両実験とも,西洋音楽文化に対するLLMの強い嗜好が示唆された。
関連論文リスト
- LLMs are Biased Teachers: Evaluating LLM Bias in Personalized Education [6.354025374447606]
パーソナライズされた教育環境において,大きな言語モデル(LLM)をバイアスとして評価する。
我々は、異なる人口集団に合わせた教育コンテンツをモデルが生成し、選択する方法について、重大なバイアスを明らかにした。
論文 参考訳(メタデータ) (2024-10-17T20:27:44Z) - Measuring Spiritual Values and Bias of Large Language Models [28.892254056685008]
大規模言語モデル(LLM)は、様々なバックグラウンドを持つユーザにとって不可欠なツールとなっている。
これらのモデルは、事前学習データに埋め込まれた言語的・文化的ニュアンスを反映している。
このデータに固有の値と視点は、LCMの挙動に影響を与え、潜在的なバイアスをもたらす。
論文 参考訳(メタデータ) (2024-10-15T14:33:23Z) - Bias in LLMs as Annotators: The Effect of Party Cues on Labelling Decision by Large Language Models [0.0]
我々は、Large Language Models (LLMs) において同様のバイアスをアノテーションとしてテストする。
人間とは違い、極端に左派や右派からの発言を誘発しても、LSMは顕著な偏見を呈する。
論文 参考訳(メタデータ) (2024-08-28T16:05:20Z) - Spoken Stereoset: On Evaluating Social Bias Toward Speaker in Speech Large Language Models [50.40276881893513]
本研究では,音声大言語モデル(SLLM)における社会的バイアスの評価を目的としたデータセットであるSpken Stereosetを紹介する。
多様な人口集団の発話に対して異なるモデルがどのように反応するかを調べることで、これらのバイアスを特定することを目指している。
これらの結果から,ほとんどのモデルではバイアスが最小であるが,ステレオタイプや反ステレオタイプ傾向がわずかにみられた。
論文 参考訳(メタデータ) (2024-08-14T16:55:06Z) - Analyzing Cultural Representations of Emotions in LLMs through Mixed Emotion Survey [2.9213203896291766]
本研究では,大規模言語モデル(LLM)における感情の文化的表現の分析に焦点をあてる。
本手法は,日本人とアメリカ人の反応に特徴的な感情指標を同定した宮本らの研究に基づいている。
モデルが文献の証拠と限定的に一致していることがわかりました。
論文 参考訳(メタデータ) (2024-08-04T20:56:05Z) - See It from My Perspective: Diagnosing the Western Cultural Bias of Large Vision-Language Models in Image Understanding [78.88461026069862]
視覚言語モデル(VLM)は、多くの言語における画像に関するクエリに応答することができる。
我々は、画像理解における西洋の偏見を実証し、局所化する新しい研究を提案する。
論文 参考訳(メタデータ) (2024-06-17T15:49:51Z) - Exploring Value Biases: How LLMs Deviate Towards the Ideal [57.99044181599786]
LLM(Large-Language-Models)は幅広いアプリケーションにデプロイされ、その応答は社会的影響を増大させる。
価値バイアスは、人間の研究結果と同様、異なるカテゴリにわたるLSMにおいて強いことが示される。
論文 参考訳(メタデータ) (2024-02-16T18:28:43Z) - Large Language Models are Geographically Biased [47.88767211956144]
我々は、地理のレンズを通して、我々の住む世界について、Large Language Models (LLM)が何を知っているかを研究する。
我々は,地理空間予測において,システム的誤りと定義する,様々な問題的地理的バイアスを示す。
論文 参考訳(メタデータ) (2024-02-05T02:32:09Z) - Bias Runs Deep: Implicit Reasoning Biases in Persona-Assigned LLMs [67.51906565969227]
LLMの基本的な推論タスクの実行能力に対するペルソナ代入の意図しない副作用について検討する。
本研究は,5つの社会デコグラフィーグループにまたがる24の推論データセット,4つのLDM,19の多様な個人(アジア人など)について検討した。
論文 参考訳(メタデータ) (2023-11-08T18:52:17Z) - Comparing Biases and the Impact of Multilingual Training across Multiple
Languages [70.84047257764405]
ダウンストリーム感情分析タスクにおいて,イタリア語,中国語,英語,ヘブライ語,スペイン語のバイアス分析を行う。
我々は、既存の感情バイアスのテンプレートを、人種、宗教、国籍、性別の4つの属性で、イタリア語、中国語、ヘブライ語、スペイン語に適応させる。
以上の結果から,各言語の文化に支配的な集団の嗜好など,バイアス表現の類似性を明らかにした。
論文 参考訳(メタデータ) (2023-05-18T18:15:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。