論文の概要: On The Role of Reasoning in the Identification of Subtle Stereotypes in Natural Language
- arxiv url: http://arxiv.org/abs/2308.00071v3
- Date: Sat, 28 Sep 2024 13:43:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-01 22:02:08.246639
- Title: On The Role of Reasoning in the Identification of Subtle Stereotypes in Natural Language
- Title(参考訳): 自然言語におけるサブトルステレオタイプ同定における推論の役割について
- Authors: Jacob-Junqi Tian, Omkar Dige, D. B. Emerson, Faiza Khan Khattak,
- Abstract要約: 大規模言語モデル(LLM)は、有害なステレオタイプを補強する様々な形式のバイアスと言語強化を含む膨大な未計算データセットに基づいて訓練される。
言語モデルにおけるバイアスを調べ、対処することが不可欠であり、それらのモデルが社会的バイアスを持続させないように、公平さを開発に組み込むことが不可欠である。
この研究は、自動ステレオタイプ検出における重要な要素としての推論を確立し、LSMのためのより強力なステレオタイプ緩和パイプラインに向けた第一歩である。
- 参考スコア(独自算出の注目度): 0.03749861135832073
- License:
- Abstract: Large language models (LLMs) are trained on vast, uncurated datasets that contain various forms of biases and language reinforcing harmful stereotypes that may be subsequently inherited by the models themselves. Therefore, it is essential to examine and address biases in language models, integrating fairness into their development to ensure that these models do not perpetuate social biases. In this work, we demonstrate the importance of reasoning in zero-shot stereotype identification across several open-source LLMs. Accurate identification of stereotypical language is a complex task requiring a nuanced understanding of social structures, biases, and existing unfair generalizations about particular groups. While improved accuracy is observed through model scaling, the use of reasoning, especially multi-step reasoning, is crucial to consistent performance. Additionally, through a qualitative analysis of select reasoning traces, we highlight how reasoning improves not just accuracy, but also the interpretability of model decisions. This work firmly establishes reasoning as a critical component in automatic stereotype detection and is a first step towards stronger stereotype mitigation pipelines for LLMs.
- Abstract(参考訳): 大規模言語モデル(LLM)は、様々な形式のバイアスや言語強化を含む膨大な未計算データセットに基づいて訓練され、その後モデル自体によって継承される可能性のある有害なステレオタイプを補強する。
したがって、言語モデルにおけるバイアスを調べ、対処することが不可欠であり、それらのモデルが社会的バイアスを持続しないよう、公平さを開発に組み込むことが不可欠である。
本研究では,複数のオープンソースLCMにおけるゼロショットステレオタイプ識別における推論の重要性を示す。
ステレオタイプ言語の正確な識別は、社会的構造、偏見、および特定のグループに関する既存の不公平な一般化の微妙な理解を必要とする複雑なタスクである。
モデルスケーリングによって精度が向上する一方で、推論、特に多段階推論の使用は、一貫したパフォーマンスに不可欠である。
さらに、選択された推論トレースの質的な分析を通じて、推論が正確性だけでなく、モデル決定の解釈可能性も向上するかを強調した。
この研究は、自動ステレオタイプ検出における重要な要素としての推論を確立し、LSMのためのより強力なステレオタイプ緩和パイプラインに向けた第一歩である。
関連論文リスト
- A Peek into Token Bias: Large Language Models Are Not Yet Genuine Reasoners [58.15511660018742]
本研究では,大規模言語モデル (LLM) が真の推論能力を持つかどうかを評価するための仮説検証フレームワークを提案する。
我々は,相補的誤りとシロメトリクス問題を含む,注意深く制御された合成データセットを開発した。
論文 参考訳(メタデータ) (2024-06-16T19:22:53Z) - Causal Concept Embedding Models: Beyond Causal Opacity in Deep Learning [11.13665894783481]
因果不透明性(英: Causal opacity)とは、ディープニューラルネットワーク(DNN)推論の根底にある「隠れた」因果構造を理解することの難しさを指す。
因果概念埋め込みモデル(Causal Concept Embedding Models, Causal CEMs)は、意思決定プロセスが設計によって因果的に透明である解釈可能なモデルのクラスである。
論文 参考訳(メタデータ) (2024-05-26T10:15:20Z) - Identifiable Latent Neural Causal Models [82.14087963690561]
因果表現学習は、低レベルの観測データから潜伏した高レベルの因果表現を明らかにすることを目指している。
因果表現の識別可能性に寄与する分布シフトのタイプを決定する。
本稿では,本研究の成果を実用的なアルゴリズムに翻訳し,信頼性の高い潜在因果表現の取得を可能にする。
論文 参考訳(メタデータ) (2024-03-23T04:13:55Z) - Decomposing Uncertainty for Large Language Models through Input Clarification Ensembling [69.83976050879318]
大規模言語モデル(LLM)では、不確実性の原因を特定することが、信頼性、信頼性、解釈可能性を改善するための重要なステップである。
本稿では,LLMのための不確実性分解フレームワークについて述べる。
提案手法は,入力に対する一連の明確化を生成し,それらをLLMに入力し,対応する予測をアンサンブルする。
論文 参考訳(メタデータ) (2023-11-15T05:58:35Z) - A Closer Look at the Self-Verification Abilities of Large Language Models in Logical Reasoning [73.77088902676306]
論理的推論の文脈において,大規模言語モデル(LLM)の自己検証能力について詳しく検討する。
本研究の主目的は,既存のLCMが誤った推論手順を正確に識別するのに苦労し,自己検証法の有効性を保証できないことにある。
論文 参考訳(メタデータ) (2023-11-14T07:13:10Z) - POUF: Prompt-oriented unsupervised fine-tuning for large pre-trained
models [62.23255433487586]
モデルに微調整を施したり、ラベルのないターゲットデータにプロンプトを施したりするための教師なしの微調整フレームワークを提案する。
本稿では,プロンプトとターゲットデータから抽出した離散分布を整列させて,言語拡張視覚とマスキング言語モデルの両方に適用する方法を示す。
論文 参考訳(メタデータ) (2023-04-29T22:05:22Z) - Fairness-aware Summarization for Justified Decision-Making [16.47665757950391]
テキストベースニューラルネットワークの正当化における不公平性の問題に焦点をあてる。
本研究では,これらのモデルにおけるバイアスを検出し,対処するための,公平性を考慮した要約機構を提案する。
論文 参考訳(メタデータ) (2021-07-13T17:04:10Z) - Investigating Bias in Image Classification using Model Explanations [0.0]
モデル説明が識別特徴を強調することで画像分類のバイアスを効率的に検出できるかどうかを評価する。
バイアス検出の重要な特徴を定式化し,モデルのバイアスの程度が変化するにつれて説明がどのように変化するかを観察した。
論文 参考訳(メタデータ) (2020-12-10T05:27:49Z) - Why do you think that? Exploring Faithful Sentence-Level Rationales
Without Supervision [60.62434362997016]
文レベルで忠実な論理を出力するモデルを作成するために,異なる訓練枠組みを提案する。
本モデルでは,各理性に基づいて各課題を個別に解決し,その課題を最もよく解決した者に高いスコアを割り当てることを学ぶ。
論文 参考訳(メタデータ) (2020-10-07T12:54:28Z) - CausaLM: Causal Model Explanation Through Counterfactual Language Models [33.29636213961804]
CausaLMは、対実言語表現モデルを用いた因果モデル説明を作成するためのフレームワークである。
本稿では,BERT のような言語表現モデルが,ある意味ある概念に対する対実表現を効果的に学習できることを示す。
本手法の副産物は,テストされた概念の影響を受けない言語表現モデルである。
論文 参考訳(メタデータ) (2020-05-27T15:06:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。