論文の概要: EtiCor++: Towards Understanding Etiquettical Bias in LLMs
- arxiv url: http://arxiv.org/abs/2506.08488v1
- Date: Tue, 10 Jun 2025 06:29:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-11 15:11:41.668927
- Title: EtiCor++: Towards Understanding Etiquettical Bias in LLMs
- Title(参考訳): EtiCor++: LLMにおけるEtiquettical Bias理解に向けて
- Authors: Ashutosh Dwivedi, Siddhant Shivdutt Singh, Ashutosh Modi,
- Abstract要約: 世界中のエチケットのコーパスであるEtiCor++を紹介します。
様々な地域におけるエチケットに関する知識のために,LLMを評価するための様々なタスクを紹介した。
- 参考スコア(独自算出の注目度): 4.679320772294786
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In recent years, researchers have started analyzing the cultural sensitivity of LLMs. In this respect, Etiquettes have been an active area of research. Etiquettes are region-specific and are an essential part of the culture of a region; hence, it is imperative to make LLMs sensitive to etiquettes. However, there needs to be more resources in evaluating LLMs for their understanding and bias with regard to etiquettes. In this resource paper, we introduce EtiCor++, a corpus of etiquettes worldwide. We introduce different tasks for evaluating LLMs for knowledge about etiquettes across various regions. Further, we introduce various metrics for measuring bias in LLMs. Extensive experimentation with LLMs shows inherent bias towards certain regions.
- Abstract(参考訳): 近年、LLMの文化的感受性の分析が始まっている。
この点において、エティケットは研究の活発な領域である。
エチケットは地域特異的であり、地域の文化の重要な部分であり、そのため、LCMをエチケットに敏感にすることが必須である。
しかし、その理解と偏見についてLLMを評価するには、より多くのリソースが必要である。
本稿では,エチケットのコーパスであるEtiCor++について紹介する。
様々な地域におけるエチケットに関する知識のために,LLMを評価するための様々なタスクを紹介した。
さらに,LLMにおけるバイアス測定の指標についても紹介する。
LLMによる大規模な実験は、特定の領域に固有の偏りを示す。
関連論文リスト
- An Evaluation of Cultural Value Alignment in LLM [27.437888319382893]
20カ国の文化と言語を10のLLMで評価し,LLM文化の大規模評価を行った。
以上の結果から,全てのモデルにまたがるアウトプットは中程度の文化的中核となることが示唆された。
より深い調査は、モデルの起源、プロンプト言語、および価値次元が文化的なアウトプットに与える影響に光を当てている。
論文 参考訳(メタデータ) (2025-04-11T09:13:19Z) - Disparities in LLM Reasoning Accuracy and Explanations: A Case Study on African American English [66.97110551643722]
本研究では,Large Language Models (LLMs) 推論タスクにおける方言の相違について検討する。
LLMは、AAE入力に対するより正確な応答とより単純な推論チェーンと説明を生成する。
これらの知見は、LLMの処理方法と異なる言語品種の理由の体系的差異を浮き彫りにした。
論文 参考訳(メタデータ) (2025-03-06T05:15:34Z) - Dialectal Toxicity Detection: Evaluating LLM-as-a-Judge Consistency Across Language Varieties [23.777874316083984]
現代のLSMによる毒性の検出に方言の違いがどう影響するかについては、体系的な研究はほとんど行われていない。
10の言語クラスタと60の変種をカバーする合成変換と人間による翻訳により、多言語データセットを作成する。
次に,多言語,方言,LLM-ヒト間の毒性を評価できる3つのLSMを評価した。
論文 参考訳(メタデータ) (2024-11-17T03:53:24Z) - Large Language Models Reflect the Ideology of their Creators [71.65505524599888]
大規模言語モデル(LLM)は、自然言語を生成するために大量のデータに基づいて訓練される。
本稿では, LLMのイデオロギー的姿勢が創造者の世界観を反映していることを示す。
論文 参考訳(メタデータ) (2024-10-24T04:02:30Z) - Hate Personified: Investigating the role of LLMs in content moderation [64.26243779985393]
ヘイト検出などの主観的タスクでは,人々が嫌悪感を知覚する場合には,多様なグループを表現できるLarge Language Model(LLM)の能力は不明確である。
追加の文脈をプロンプトに含めることで、LLMの地理的プライミングに対する感受性、ペルソナ属性、数値情報を分析し、様々なグループのニーズがどの程度反映されているかを評価する。
論文 参考訳(メタデータ) (2024-10-03T16:43:17Z) - How Well Do LLMs Represent Values Across Cultures? Empirical Analysis of LLM Responses Based on Hofstede Cultural Dimensions [9.275967682881944]
ユーザの既知の国のステレオタイプ値に基づいて,大規模言語モデルがユーザに対して異なる値を示すかどうかを理解することが重要である。
我々は,5つのホフスティード文化次元に基づく一連のアドバイス要請で,異なるLCMを刺激する。
LLMは、ある価値の一方の側面と他方の側面を区別することができ、また、国が異なる価値を持っていることを理解できます。
論文 参考訳(メタデータ) (2024-06-21T00:58:01Z) - See the Unseen: Better Context-Consistent Knowledge-Editing by Noises [73.54237379082795]
知識編集が大規模言語モデル(LLM)の知識を更新
既存の作業はこの特性を無視し、編集には一般化が欠けている。
実験により、異なる文脈がLLMに与える影響は、同じ知識を思い出す際にガウス的な分布に従うことが判明した。
論文 参考訳(メタデータ) (2024-01-15T09:09:14Z) - EtiCor: Corpus for Analyzing LLMs for Etiquettes [5.259087610534564]
我々は,エティケテスコーパスであるEtiCorを提案する。
コーパスは、地域固有のエチケットの知識と理解のためにLSMを評価するためのテストベッドを提供する。
論文 参考訳(メタデータ) (2023-10-29T10:47:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。