論文の概要: CO-STAR: Conceptualisation of Stereotypes for Analysis and Reasoning
- arxiv url: http://arxiv.org/abs/2112.00819v1
- Date: Wed, 1 Dec 2021 20:39:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-03 14:59:57.275694
- Title: CO-STAR: Conceptualisation of Stereotypes for Analysis and Reasoning
- Title(参考訳): CO-STAR:解析と推論のためのステレオタイプの概念化
- Authors: Teyun Kwon, Anandha Gopalan
- Abstract要約: 我々は既存の文献と、インプリッドステレオタイプの基礎概念をエンコードする新しいフレームワークであるCO-STARを構築している。
また、インプリッドステレオタイプとステレオタイプ概念化の12K以上の構造化アノテーションを含むCO-STARトレーニングデータセットについても紹介する。
しかし、CO-STARモデルは、より複雑で下位に語られたステレオタイプを理解する能力に制限がある。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Warning: this paper contains material which may be offensive or upsetting.
While much of recent work has focused on the detection of hate speech and
overtly offensive content, very little research has explored the more subtle
but equally harmful language in the form of implied stereotypes. This is a
challenging domain, made even more so by the fact that humans often struggle to
understand and reason about stereotypes. We build on existing literature and
present CO-STAR (COnceptualisation of STereotypes for Analysis and Reasoning),
a novel framework which encodes the underlying concepts of implied stereotypes.
We also introduce the CO-STAR training data set, which contains just over 12K
structured annotations of implied stereotypes and stereotype
conceptualisations, and achieve state-of-the-art results after training and
manual evaluation. The CO-STAR models are, however, limited in their ability to
understand more complex and subtly worded stereotypes, and our research
motivates future work in developing models with more sophisticated methods for
encoding common-sense knowledge.
- Abstract(参考訳): 警告: 本論文は攻撃的あるいは不安定な材料を含む。
最近の研究の多くはヘイトスピーチの検出と過度に不快な内容に重点を置いているが、暗黙のステレオタイプという形で、より微妙だが等しく有害な言語を探求する研究はほとんどない。
これは、人間がしばしばステレオタイプを理解し、推論するのに苦労するという事実によって、さらに難しいドメインです。
我々は既存の文献とCO-STAR(Conceptualization of STereotypes for Analysis and Reasoning)に基づいて,インプリッドステレオタイプの基礎概念を符号化する新しいフレームワークを構築した。
また,インプリッドステレオタイプおよびステレオタイプ概念化のアノテーションが12Kを超えるCO-STARトレーニングデータセットを導入し,トレーニングおよび手作業による評価の結果を得た。
しかし、CO-STARモデルは、より複雑で言葉の少ないステレオタイプを理解する能力に限られており、我々の研究は、より洗練された常識知識を符号化する手法を用いたモデル開発における将来の取り組みを動機付けている。
関連論文リスト
- Incorporating Human Explanations for Robust Hate Speech Detection [17.354241456219945]
我々は、LMがヘイトスピーチを忠実に評価するかどうかを評価するための3段階分析を開発する。
まず、暗黙の意味を捉えるために、文脈的に基底付けられたステレオタイプインテントをモデル化する必要性を観察する。
次に,SIE(Stereotype Intent Entailment)という新たなタスクを設計し,ステレオタイプの存在を文脈的に理解するモデルを提案する。
論文 参考訳(メタデータ) (2024-11-09T15:29:04Z) - Information Theoretic Text-to-Image Alignment [49.396917351264655]
本稿では,ステア画像生成のための情報理論アライメント尺度を用いた新しい手法を提案する。
提案手法は最先端の手法よりも優れているが,MIを推定するためには事前学習されたデノナイジングネットワークを必要としない。
論文 参考訳(メタデータ) (2024-05-31T12:20:02Z) - Stereotype Detection in LLMs: A Multiclass, Explainable, and Benchmark-Driven Approach [4.908389661988191]
本稿では, 性別, 人種, 職業, 宗教, その他のステレオタイプにまたがる51,867の事例からなるMulti-Grain Stereotype (MGS)データセットを提案する。
我々は、さまざまな機械学習アプローチを評価し、異なるアーキテクチャと大きさのベースラインと微調整言語モデルを確立する。
我々は、モデルが学習したパターンがステレオタイプに関する人間の直観と一致するかどうかを評価するために、SHAP、LIME、BertVizを含む説明可能なAI(XAI)ツールを採用する。
論文 参考訳(メタデータ) (2024-04-02T09:31:32Z) - Interpreting Pretrained Language Models via Concept Bottlenecks [55.47515772358389]
事前訓練された言語モデル(PLM)は、様々な自然言語処理タスクにおいて大きな進歩を遂げてきた。
ブラックボックスの性質による解釈可能性の欠如は、責任ある実装に課題をもたらす。
本研究では,人間にとって理解しやすい高レベルで有意義な概念を用いて,PLMを解釈する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T20:41:18Z) - Language Agents for Detecting Implicit Stereotypes in Text-to-image
Models at Scale [45.64096601242646]
テキスト・ツー・イメージモデルにおけるステレオタイプ検出に適した新しいエージェントアーキテクチャを提案する。
複数のオープンテキストデータセットに基づいたステレオタイプ関連ベンチマークを構築した。
これらのモデルは、個人的特性に関する特定のプロンプトに関して、深刻なステレオタイプを示すことが多い。
論文 参考訳(メタデータ) (2023-10-18T08:16:29Z) - Foundational Models Defining a New Era in Vision: A Survey and Outlook [151.49434496615427]
視覚シーンの構成的性質を観察し、推論する視覚システムは、我々の世界を理解するのに不可欠である。
モデルは、このようなモダリティと大規模なトレーニングデータとのギャップを埋めることを学び、コンテキスト推論、一般化、テスト時の迅速な機能を容易にした。
このようなモデルの出力は、例えば、バウンディングボックスを設けて特定のオブジェクトをセグメント化したり、画像や映像シーンについて質問したり、言語命令でロボットの動作を操作することで対話的な対話を行うなど、リトレーニングすることなく、人為的なプロンプトによって変更することができる。
論文 参考訳(メタデータ) (2023-07-25T17:59:18Z) - Counteracts: Testing Stereotypical Representation in Pre-trained
Language Models [4.211128681972148]
我々は,事前学習言語モデル(PLM)の内部ステレオタイプ知識を調べるために,反例を用いている。
我々は,9種類のクローゼスタイルのプロンプトに対して,異なる情報と基本知識で7つのPLMを評価する。
論文 参考訳(メタデータ) (2023-01-11T07:52:59Z) - Easily Accessible Text-to-Image Generation Amplifies Demographic
Stereotypes at Large Scale [61.555788332182395]
危険で複雑なステレオタイプを増幅する機械学習モデルの可能性を検討する。
さまざまな通常のプロンプトがステレオタイプを生成しており、それらは単に特性、記述子、職業、オブジェクトに言及するプロンプトを含む。
論文 参考訳(メタデータ) (2022-11-07T18:31:07Z) - Understanding and Countering Stereotypes: A Computational Approach to
the Stereotype Content Model [4.916009028580767]
ステレオタイプコンテンツモデル(SCM)を用いてテキスト中のステレオタイプを解釈する計算手法を提案する。
SCMは、ステレオタイプは温かさと能力の2つの主要な次元に沿って理解することができると提案している。
反ステレオタイプ的な例によるステレオタイプに対抗することは、偏見的思考を減らす最も効果的な方法の1つであることが知られている。
論文 参考訳(メタデータ) (2021-06-04T16:53:37Z) - A Minimalist Dataset for Systematic Generalization of Perception,
Syntax, and Semantics [131.93113552146195]
我々は,機械が一般化可能な概念を学習する能力を調べるため,新しいデータセットであるHINT(Hand written arithmetic with INTegers)を提案する。
HINTでは、イメージなどの生信号から概念がどのように認識されるかを学ぶことが機械のタスクである。
我々は、RNN、Transformer、GPT-3など、様々なシーケンス・ツー・シーケンスモデルで広範囲に実験を行った。
論文 参考訳(メタデータ) (2021-03-02T01:32:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。