論文の概要: Disability Across Cultures: A Human-Centered Audit of Ableism in Western and Indic LLMs
- arxiv url: http://arxiv.org/abs/2507.16130v1
- Date: Tue, 22 Jul 2025 00:51:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-23 21:34:13.920002
- Title: Disability Across Cultures: A Human-Centered Audit of Ableism in Western and Indic LLMs
- Title(参考訳): 文化全体での障害:西欧とインドにおけるアブレニズムの人間中心の監査
- Authors: Mahika Phutane, Aditya Vashistha,
- Abstract要約: 大規模言語モデル(LLM)は、オンラインヘイトを識別し緩和するためにますます使われています。
オンラインアクティビズムに関するほとんどの研究は、西洋のAIモデルを用いた西洋の聴衆に焦点を当てている。
これらのモデルは、インドのような西欧以外の地域で、有能な損害を認識するために適切に装備されているか?
- 参考スコア(独自算出の注目度): 13.39545827095472
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: People with disabilities (PwD) experience disproportionately high levels of discrimination and hate online, particularly in India, where entrenched stigma and limited resources intensify these challenges. Large language models (LLMs) are increasingly used to identify and mitigate online hate, yet most research on online ableism focuses on Western audiences with Western AI models. Are these models adequately equipped to recognize ableist harm in non-Western places like India? Do localized, Indic language models perform better? To investigate, we adopted and translated a publicly available ableist speech dataset to Hindi, and prompted eight LLMs--four developed in the U.S. (GPT-4, Gemini, Claude, Llama) and four in India (Krutrim, Nanda, Gajendra, Airavata)--to score and explain ableism. In parallel, we recruited 175 PwD from both the U.S. and India to perform the same task, revealing stark differences between groups. Western LLMs consistently overestimated ableist harm, while Indic LLMs underestimated it. Even more concerning, all LLMs were more tolerant of ableism when it was expressed in Hindi and asserted Western framings of ableist harm. In contrast, Indian PwD interpreted harm through intention, relationality, and resilience--emphasizing a desire to inform and educate perpetrators. This work provides groundwork for global, inclusive standards of ableism, demonstrating the need to center local disability experiences in the design and evaluation of AI systems.
- Abstract(参考訳): 障害を持つ人々(PwD)は、特にインドでは差別や憎悪のレベルが著しく高い。
大規模言語モデル(LLM)は、オンラインヘイトを識別し緩和するためにますます使われていますが、オンラインアクティビズムに関するほとんどの研究は、西洋のAIモデルを持つ西洋のオーディエンスに焦点を当てています。
これらのモデルは、インドのような西欧以外の地域で、有能な損害を認識するために適切に装備されているか?
ローカライズされたIndic言語モデルのパフォーマンスは向上するか?
我々は,ヒンディー語に公開可能な有能な音声データセットを採用,翻訳し,米国(GPT-4,Gemini,Claude,Llama)とインド(Krutrim,Nanda,Gajendra,Airavata)で開発された8つのLLM(4つのLLM)を引用した。これと並行して,米国とインドから175のPwDを募集して,グループ間のスタークな差異を明らかにした。西LLMは一貫して有能な被害を過小評価しているのに対して,インドLLMは,ヒンディー語で表現されたときより耐久性が高く,西洋のフレーミングが損なわれ,インドにおけるPwDとリレーショナルなリレーショナル性が評価された。
この研究は、AIシステムの設計と評価において、局所的な障害経験を集中する必要性を示す、グローバルで包括的な能力主義の標準の基盤を提供する。
関連論文リスト
- Somatic in the East, Psychological in the West?: Investigating Clinically-Grounded Cross-Cultural Depression Symptom Expression in LLMs [4.192921651573462]
大規模な言語モデルがこれらの文化パターンを再現するかどうかを西方または東方ペルソナで促すことで検証する。
その結果、LLMは英語で促すとパターンの複製にほとんど失敗していることがわかった。
我々の分析は、モデルが文化的ペルソナに対する感度の低いことと、強い文化的に不変な症状階層の2つの主な原因を指摘した。
論文 参考訳(メタデータ) (2025-08-05T09:25:38Z) - FairI Tales: Evaluation of Fairness in Indian Contexts with a Focus on Bias and Stereotypes [23.71105683137539]
フェアネスに関する既存の研究は、主に西洋に焦点を絞っており、インドのような文化的に多様な国では不十分である。
インドを中心とした総合的なベンチマークであるINDIC-BIASを導入し,85の社会アイデンティティグループを対象としたLCMの公平性を評価する。
論文 参考訳(メタデータ) (2025-06-29T06:31:06Z) - Mind the Gap! Choice Independence in Using Multilingual LLMs for Persuasive Co-Writing Tasks in Different Languages [51.96666324242191]
チャリティー広告作成タスクにおける新規筆記アシスタントのユーザ利用が、第2言語におけるAIの性能に影響を及ぼすかどうかを分析する。
我々は、これらのパターンが、生成したチャリティー広告の説得力に変換される程度を定量化する。
論文 参考訳(メタデータ) (2025-02-13T17:49:30Z) - Belief in the Machine: Investigating Epistemological Blind Spots of Language Models [51.63547465454027]
言語モデル(LM)は、医療、法律、ジャーナリズムといった分野において、信頼できる意思決定に不可欠である。
本研究は,新しいデータセットであるKaBLEを用いて,GPT-4,Claude-3,Llama-3を含む現代のLMの能力を体系的に評価する。
まず、LMは事実シナリオで86%の精度を達成するが、その性能は偽シナリオで著しく低下する。
第二に、特にこれらの信念が事実データと矛盾する場合、LMは個人的信念を認識し、肯定するのに苦労する。
論文 参考訳(メタデータ) (2024-10-28T16:38:20Z) - Large Language Models Reflect the Ideology of their Creators [71.65505524599888]
大規模言語モデル(LLM)は、自然言語を生成するために大量のデータに基づいて訓練される。
本稿では, LLMのイデオロギー的姿勢が創造者の世界観を反映していることを示す。
論文 参考訳(メタデータ) (2024-10-24T04:02:30Z) - Arabic Dataset for LLM Safeguard Evaluation [62.96160492994489]
本研究では,アラビア語における大言語モデル(LLM)の安全性と,その言語的・文化的複雑さについて考察する。
本稿では, 直接攻撃, 間接攻撃, センシティブな単語による無害な要求を含む5,799の質問からなるアラブ地域固有の安全評価データセットを提案する。
論文 参考訳(メタデータ) (2024-10-22T14:12:43Z) - "Cold, Calculated, and Condescending": How AI Identifies and Explains Ableism Compared to Disabled People [11.918730164549416]
障害のある人(PwD)は、定期的にネット上の憎悪やマイクロアグレッションに遭遇する。
AIモデルが有能な発話をいかに効果的に識別するか、その判断がPwDとどのように一致しているかについては、ほとんど分かっていない。
われわれはPwDをターゲットとした200のソーシャルメディアコメントの第一種データセットをキュレートした。
論文 参考訳(メタデータ) (2024-10-04T14:09:12Z) - Hate Personified: Investigating the role of LLMs in content moderation [64.26243779985393]
ヘイト検出などの主観的タスクでは,人々が嫌悪感を知覚する場合には,多様なグループを表現できるLarge Language Model(LLM)の能力は不明確である。
追加の文脈をプロンプトに含めることで、LLMの地理的プライミングに対する感受性、ペルソナ属性、数値情報を分析し、様々なグループのニーズがどの程度反映されているかを評価する。
論文 参考訳(メタデータ) (2024-10-03T16:43:17Z) - "They are uncultured": Unveiling Covert Harms and Social Threats in LLM Generated Conversations [15.535416139394009]
大規模言語モデル(LLM)は現代社会の不可欠な部分として登場した。
実用性にも拘わらず、LLMは体系的バイアスを持続することを示している。
社会科学文献に基礎を置く7つの指標の集合であるCovert Harms and Social Threats(CHAST)を紹介する。
論文 参考訳(メタデータ) (2024-05-08T19:08:45Z) - Bias Runs Deep: Implicit Reasoning Biases in Persona-Assigned LLMs [67.51906565969227]
LLMの基本的な推論タスクの実行能力に対するペルソナ代入の意図しない副作用について検討する。
本研究は,5つの社会デコグラフィーグループにまたがる24の推論データセット,4つのLDM,19の多様な個人(アジア人など)について検討した。
論文 参考訳(メタデータ) (2023-11-08T18:52:17Z) - Indian-BhED: A Dataset for Measuring India-Centric Biases in Large Language Models [18.201326983938014]
大規模言語モデル(LLM)は社会的バイアスを符号化し、ユーザを表現上の害に晒す。
本研究は,LLMにおけるステレオタイプバイアスを,そのタイプデータセットであるIndian-BhEDを用いて,インド中心のフレームに従って定量化する。
テストされたLLMの大多数は、インドの文脈でステレオタイプを出力する確率が強いことが判明した。
論文 参考訳(メタデータ) (2023-09-15T17:38:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。