論文の概要: Disentangling Perceptions of Offensiveness: Cultural and Moral
Correlates
- arxiv url: http://arxiv.org/abs/2312.06861v1
- Date: Mon, 11 Dec 2023 22:12:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-13 17:57:10.343617
- Title: Disentangling Perceptions of Offensiveness: Cultural and Moral
Correlates
- Title(参考訳): 強迫観念:文化的・道徳的相関
- Authors: Aida Davani, Mark D\'iaz, Dylan Baker, Vinodkumar Prabhakaran
- Abstract要約: 我々は、文化的・心理的要因が攻撃性の認知的処理において重要な役割を担っていると論じる。
攻撃性に対する認識の文化的相違が顕著である。
個人の道徳的価値観は、これらのバリエーションを形成する上で重要な役割を担っている。
- 参考スコア(独自算出の注目度): 4.857640117519813
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Perception of offensiveness is inherently subjective, shaped by the lived
experiences and socio-cultural values of the perceivers. Recent years have seen
substantial efforts to build AI-based tools that can detect offensive language
at scale, as a means to moderate social media platforms, and to ensure safety
of conversational AI technologies such as ChatGPT and Bard. However, existing
approaches treat this task as a technical endeavor, built on top of data
annotated for offensiveness by a global crowd workforce without any attention
to the crowd workers' provenance or the values their perceptions reflect. We
argue that cultural and psychological factors play a vital role in the
cognitive processing of offensiveness, which is critical to consider in this
context. We re-frame the task of determining offensiveness as essentially a
matter of moral judgment -- deciding the boundaries of ethically wrong vs.
right language within an implied set of socio-cultural norms. Through a
large-scale cross-cultural study based on 4309 participants from 21 countries
across 8 cultural regions, we demonstrate substantial cross-cultural
differences in perceptions of offensiveness. More importantly, we find that
individual moral values play a crucial role in shaping these variations: moral
concerns about Care and Purity are significant mediating factors driving
cross-cultural differences. These insights are of crucial importance as we
build AI models for the pluralistic world, where the values they espouse should
aim to respect and account for moral values in diverse geo-cultural contexts.
- Abstract(参考訳): 攻撃性の知覚は本質的に主観的であり、生活経験と知覚者の社会文化的価値によって形作られる。
近年、ソーシャルメディアプラットフォームを緩和し、ChatGPTやBardといった会話型AI技術の安全性を確保する手段として、攻撃的言語を大規模に検出できるAIベースのツールの構築に多大な努力が払われている。
しかし、既存のアプローチでは、このタスクを、群衆労働者の実績やその認識が反映する価値観に何の注意も払わずに、グローバルな群衆労働者による攻撃性を示すデータの上に構築された技術的取り組みとして扱う。
我々は、文化的・心理的要因が攻撃性の認知的処理において重要な役割を担っていると論じている。
我々は、攻撃性を決定するタスクを、本質的に道徳的判断の問題として再編成する -- 倫理的に間違った言語と、社会文化的規範のセットにおける正しい言語の境界を決定する。
8つの文化圏にまたがる21カ国の4309人を対象に,大規模な異文化研究を行った。
ケアと純粋性に対する道徳的関心は、異文化間の差異を引き起こす重要な要因である。
これらの洞察は、多元的世界のためのAIモデルを構築する上で重要なものであり、そこでは、それらが採用する価値は、多様な地理的文化的文脈における道徳的価値を尊重し、考慮すべきである。
関連論文リスト
- What You Use is What You Get: Unforced Errors in Studying Cultural Aspects in Agile Software Development [2.9418191027447906]
文化的特徴の影響を調べることは、多面的な文化概念のために困難である。
文化的・社会的側面は、実際にの使用が成功する上で非常に重要である。
論文 参考訳(メタデータ) (2024-04-25T20:08:37Z) - The PRISM Alignment Project: What Participatory, Representative and Individualised Human Feedback Reveals About the Subjective and Multicultural Alignment of Large Language Models [67.38144169029617]
PRISMは,75か国から1500人の多様な参加者を対象に,社会デマトグラフィーをマッピングし,嗜好を提示する新しいデータセットである。
PRISMは、(i)ヒトのフィードバックデータにおける地理的および人口統計学的関与、(ii)集団福祉(UKとUS)を理解するための2つの国勢調査表現サンプル、(iii)全ての評価が詳細な参加者プロファイルに関連付けられている個別化されたフィードバックに寄与する。
論文 参考訳(メタデータ) (2024-04-24T17:51:36Z) - D3CODE: Disentangling Disagreements in Data across Cultures on Offensiveness Detection and Evaluation [5.9053106775634685]
4k以上のアノテーションをアノテータのプールにアノテートした4.5K以上の文で、攻撃的言語のための並列アノテーションの大規模なクロスカルチャーデータセットを紹介した。
このデータセットには、ケア、平等、比例、権威、忠誠、純粋性の6つの道徳的基礎に沿って収集されたアノテーターの道徳的価値が含まれている。
分析の結果,アノテータの知覚は個々の道徳的価値観によって形成されていることが明らかとなった。
論文 参考訳(メタデータ) (2024-04-16T19:12:03Z) - Massively Multi-Cultural Knowledge Acquisition & LM Benchmarking [48.21982147529661]
本稿では,多文化知識獲得のための新しいアプローチを提案する。
本手法は,文化トピックに関するウィキペディア文書からリンクページの広範囲なネットワークへ戦略的にナビゲートする。
私たちの仕事は、AIにおける文化的格差のギャップを深く理解し、橋渡しするための重要なステップです。
論文 参考訳(メタデータ) (2024-02-14T18:16:54Z) - Auditing and Mitigating Cultural Bias in LLMs [1.024113475677323]
GPT-4,3.5,3は、英語とプロテスタントのヨーロッパ諸国に類似した文化的価値を示す。
生成的AIの文化的偏見を回避するため,文化マッチングと進行中の文化監査を併用することを提案する。
論文 参考訳(メタデータ) (2023-11-23T16:45:56Z) - Not All Countries Celebrate Thanksgiving: On the Cultural Dominance in
Large Language Models [89.94270049334479]
本稿では,大規模言語モデル(LLM)における文化的優位性について述べる。
LLMは、ユーザーが非英語で尋ねるときに期待する文化とは無関係な、不適切な英語文化関連の回答を提供することが多い。
論文 参考訳(メタデータ) (2023-10-19T05:38:23Z) - Value Kaleidoscope: Engaging AI with Pluralistic Human Values, Rights, and Duties [68.66719970507273]
価値多元性とは、複数の正しい値が互いに緊張して保持されるという考え方である。
統計的学習者として、AIシステムはデフォルトで平均に適合する。
ValuePrismは、218kの値、権利、義務の大規模なデータセットで、31kの人間が記述した状況に関連付けられています。
論文 参考訳(メタデータ) (2023-09-02T01:24:59Z) - Assessing Cross-Cultural Alignment between ChatGPT and Human Societies:
An Empirical Study [9.919972416590124]
ChatGPTは、対話で人間のような反応を生成できるという異常な能力で広く認知されている。
そこで我々は,ChatGPTの文化的背景を,人間の文化的差異を定量化するための質問に対する応答の分析によって検討した。
論文 参考訳(メタデータ) (2023-03-30T15:43:39Z) - Towards Intercultural Affect Recognition: Audio-Visual Affect
Recognition in the Wild Across Six Cultures [15.37706529432381]
本稿では,6つの文化から生ずる実世界のダイアド的相互作用のビデオを用いた,文化間影響認識モデルの最初の体系的研究について述べる。
その結果, 文化間影響の認識モデルは, 文化内モデルよりも効果的か, より効果的であることが示唆された。
本稿では,文化間影響認識システムの今後の発展に向けた概念実証とモチベーションについて述べる。
論文 参考訳(メタデータ) (2022-07-31T02:39:17Z) - Towards Understanding and Mitigating Social Biases in Language Models [107.82654101403264]
大規模事前訓練言語モデル(LM)は、望ましくない表現バイアスを示すのに潜在的に危険である。
テキスト生成における社会的バイアスを軽減するためのステップを提案する。
我々の経験的結果と人的評価は、重要な文脈情報を保持しながらバイアスを緩和する効果を示す。
論文 参考訳(メタデータ) (2021-06-24T17:52:43Z) - Aligning AI With Shared Human Values [85.2824609130584]
私たちは、正義、幸福、義務、美徳、常識道徳の概念にまたがる新しいベンチマークであるETHICSデータセットを紹介します。
現在の言語モデルは、基本的な人間の倫理的判断を予測できる有望だが不完全な能力を持っている。
私たちの研究は、今日の機械倫理の進歩を示しており、人間の価値観に合わせたAIへの足掛かりを提供する。
論文 参考訳(メタデータ) (2020-08-05T17:59:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。