論文の概要: Insights on Disagreement Patterns in Multimodal Safety Perception across Diverse Rater Groups
- arxiv url: http://arxiv.org/abs/2410.17032v1
- Date: Tue, 22 Oct 2024 13:59:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-23 14:25:17.239188
- Title: Insights on Disagreement Patterns in Multimodal Safety Perception across Diverse Rater Groups
- Title(参考訳): マルチモーダル・セーフ・パーセプションにおける異方性パターンの検討
- Authors: Charvi Rastogi, Tian Huey Teh, Pushkar Mishra, Roma Patel, Zoe Ashwood, Aida Mostafazadeh Davani, Mark Diaz, Michela Paganini, Alicia Parrish, Ding Wang, Vinodkumar Prabhakaran, Lora Aroyo, Verena Rieser,
- Abstract要約: AIシステムは人間のレーティングに大きく依存するが、これらのレーティングはしばしば集約される。
これは、社会文化的文脈によって知覚と関連する害が著しく異なる、生成的AIの安全性を評価する場合に特に関係している。
人口統計学的に多彩な630人のレーダプールから,約1000文字対画像(T2I)の高並列安全性評価を用いた大規模研究を行った。
- 参考スコア(独自算出の注目度): 29.720095331989064
- License:
- Abstract: AI systems crucially rely on human ratings, but these ratings are often aggregated, obscuring the inherent diversity of perspectives in real-world phenomenon. This is particularly concerning when evaluating the safety of generative AI, where perceptions and associated harms can vary significantly across socio-cultural contexts. While recent research has studied the impact of demographic differences on annotating text, there is limited understanding of how these subjective variations affect multimodal safety in generative AI. To address this, we conduct a large-scale study employing highly-parallel safety ratings of about 1000 text-to-image (T2I) generations from a demographically diverse rater pool of 630 raters balanced across 30 intersectional groups across age, gender, and ethnicity. Our study shows that (1) there are significant differences across demographic groups (including intersectional groups) on how severe they assess the harm to be, and that these differences vary across different types of safety violations, (2) the diverse rater pool captures annotation patterns that are substantially different from expert raters trained on specific set of safety policies, and (3) the differences we observe in T2I safety are distinct from previously documented group level differences in text-based safety tasks. To further understand these varying perspectives, we conduct a qualitative analysis of the open-ended explanations provided by raters. This analysis reveals core differences into the reasons why different groups perceive harms in T2I generations. Our findings underscore the critical need for incorporating diverse perspectives into safety evaluation of generative AI ensuring these systems are truly inclusive and reflect the values of all users.
- Abstract(参考訳): AIシステムは人間のレーティングに大きく依存するが、これらのレーティングはしばしば集約され、現実世界の現象におけるパースペクティブの固有の多様性を無視する。
これは、社会文化的文脈によって知覚と関連する害が著しく異なる、生成的AIの安全性を評価する場合に特に関係している。
最近の研究では、アノテートテキストに対する人口動態の違いの影響について研究されているが、これらの主観的変化が生成的AIのマルチモーダル安全性にどのように影響するかについては、限定的な理解がされている。
そこで本研究では, 年齢, 性別, 民族の交叉群30種にまたがって, 年齢的に多彩な630人のラッカープールから, 約1000のテキスト・ツー・イメージ(T2I)世代を高並列で安全性評価した大規模研究を行った。
本研究は,(1) 集団間(交差点群を含む)において, 被害評価の程度や, 各種の安全違反の違い,(2) 多様なレーダプールは, 特定の安全方針を訓練した専門家とは大きく異なるアノテーションパターンを捉えている,(3) T2I の安全性における差異は, これまで文書化されていたテキストベースの安全作業におけるグループレベルの差異とは大きく異なることを示す。
これらの様々な視点をさらに理解するために、ラッカーが提示するオープンエンドの説明の質的分析を行う。
この分析は、異なるグループがT2I世代で危害を知覚する理由について、中核的な違いを明らかにしている。
これらのシステムが真に包括的であり、すべてのユーザの価値を反映するように、生成AIの安全性評価に多様な視点を取り入れることが重要である。
関連論文リスト
- The Factuality Tax of Diversity-Intervened Text-to-Image Generation: Benchmark and Fact-Augmented Intervention [61.80236015147771]
我々は多様性の介入とT2Iモデルにおける人口統計学的事実性とのトレードオフを定量化する。
DoFaiRの実験では、多様性指向の指示によって、性別や人種の異なる集団の数が増加することが明らかになった。
本研究では,歴史における世代ごとのジェンダーや人種構成について,言語化された事実情報を反映したFact-Augmented Intervention (FAI)を提案する。
論文 参考訳(メタデータ) (2024-06-29T09:09:42Z) - Diverse, but Divisive: LLMs Can Exaggerate Gender Differences in Opinion
Related to Harms of Misinformation [8.066880413153187]
本稿では,多言語モデル(LLM)が誤報の被害を評価する際に,様々なグループの視点を反映できるかどうかを検討する。
TopicMisinfoデータセットには,さまざまなトピックから160件のファクトチェックされたクレームが含まれている。
GPT 3.5-Turboは、経験的に観察された意見の男女差を反映するが、これらの差の程度を増幅する。
論文 参考訳(メタデータ) (2024-01-29T20:50:28Z) - Exploring Public's Perception of Safety and Video Surveillance
Technology: A Survey Approach [2.473948454680334]
本研究は,コミュニティの一般公衆安全に関する懸念,既存の監視技術に対する見解,および都市環境における安全向上のためのAI駆動型ソリューションに対する認識を総合的に分析し,シャーロットに焦点をあてたものである。
本研究は, 年齢, 性別, 民族, 教育水準などの人口統計学的要因を調査し, 公衆の認識や公衆の安全への懸念, 解決策の可能性について考察する。
論文 参考訳(メタデータ) (2023-12-10T15:53:37Z) - GRASP: A Disagreement Analysis Framework to Assess Group Associations in Perspectives [18.574420136899978]
本稿では,グループ関係を,異なるレーダサブグループ間の視点で測定するための総合的不一致分析フレームワークGRASPを提案する。
本フレームワークは,特定のタスクにおいて他と大きく異なる視点を持つ特定のレーダ群を明らかにし,特定のタスクコンテキストにおいて考慮すべき人口動態の同定を支援する。
論文 参考訳(メタデータ) (2023-11-09T00:12:21Z) - Stable Bias: Analyzing Societal Representations in Diffusion Models [72.27121528451528]
本稿では,テキスト・ツー・イメージ(TTI)システムにおける社会的バイアスを探索する新しい手法を提案する。
我々のアプローチは、プロンプト内の性別や民族のマーカーを列挙して生成された画像の変動を特徴づけることに依存している。
我々はこの手法を利用して3つのTTIシステムによって生成された画像を分析し、そのアウトプットが米国の労働人口層と相関しているのに対して、彼らは常に異なる範囲において、限界化されたアイデンティティを低く表現している。
論文 参考訳(メタデータ) (2023-03-20T19:32:49Z) - The Double-Edged Sword of Diversity: How Diversity, Conflict, and
Psychological Safety Impact Software Teams [6.190511747986327]
チームの多様性は両刃の剣と見なすことができます。
本研究は分類-実験モデル(CEM)のレンズを通して多様性を考察する。
性別,年齢,役割,文化的背景の多様性がチームの有効性と対立に与える影響について検討した。
論文 参考訳(メタデータ) (2023-01-30T14:54:44Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - On the confidence of stereo matching in a deep-learning era: a
quantitative evaluation [124.09613797008099]
ステレオマッチングにおける信頼度推定の分野における10年以上の発展を概観する。
本研究では,異なるステレオアルゴリズムのプールに適用した場合と,最先端のディープステレオネットワークと組み合わせる場合とで,各測定値の異なる挙動について検討する。
論文 参考訳(メタデータ) (2021-01-02T11:40:17Z) - Fully Unsupervised Person Re-identification viaSelective Contrastive
Learning [58.5284246878277]
人物再識別(ReID)は、様々なカメラが捉えた画像の中から同一人物を検索することを目的としている。
教師なし特徴学習のための新しい選択型コントラスト学習フレームワークを提案する。
その結果,教師なしのReIDにおける手法の優位性について,最先端技術と比較した。
論文 参考訳(メタデータ) (2020-10-15T09:09:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。