論文の概要: My LLM might Mimic AAE -- But When Should it?
- arxiv url: http://arxiv.org/abs/2502.04564v2
- Date: Tue, 11 Feb 2025 01:56:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-12 13:59:04.913072
- Title: My LLM might Mimic AAE -- But When Should it?
- Title(参考訳): LLM は AAE を損なうかもしれない。しかしそれはいつあるべきか?
- Authors: Sandra C. Sandoval, Christabel Acquaye, Kwesi Cobbina, Mohammad Nayeem Teli, Hal Daumé III,
- Abstract要約: 大型言語モデル(LLM)におけるアフリカ系アメリカ人英語の表現について検討する。
LLMの出力にAAEが適切かどうかを判断する上で、黒人は選択と自律性を好む。
LLMは、フォーマルな設定でメインストリームの英語で通信することをデフォルトとし、よりフォーマルな設定でAEの生産に関心を抱いた。
- 参考スコア(独自算出の注目度): 16.19386080232262
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We examine the representation of African American English (AAE) in large language models (LLMs), exploring (a) the perceptions Black Americans have of how effective these technologies are at producing authentic AAE, and (b) in what contexts Black Americans find this desirable. Through both a survey of Black Americans ($n=$ 104) and annotation of LLM-produced AAE by Black Americans ($n=$ 228), we find that Black Americans favor choice and autonomy in determining when AAE is appropriate in LLM output. They tend to prefer that LLMs default to communicating in Mainstream U.S. English in formal settings, with greater interest in AAE production in less formal settings. When LLMs were appropriately prompted and provided in context examples, our participants found their outputs to have a level of AAE authenticity on par with transcripts of Black American speech. Select code and data for our project can be found here: https://github.com/smelliecat/AAEMime.git
- Abstract(参考訳): 大型言語モデル(LLM)におけるアフリカ系アメリカ人英語(AAE)の表現について検討する。
a) 黒人がこれらの技術が真正なAE生産にどれほど効果的かという認識と、そして
b) 黒人がどのような文脈でこれを望ましいとみなすか。
黒人(104ドル)の調査と、アフリカ系アメリカ人(228ドル)によるLLM生産されたAAEのアノテーションの両方を通して、米国人はLLMの出力にAAEが適切かどうかを決定する際に選択と自律性を好む。
彼らは、LLMは、フォーマルな設定で、よりフォーマルな設定でAE生産に関心を抱き、メインストリームの英語で通信することよりも、デフォルトのLLMを好む傾向にある。
LLMが適切に刺激され、文脈例で提供された場合、我々の被験者は、その出力が黒人のスピーチの書き起こしと同等のAAE認証レベルを持つことを発見した。
私たちのプロジェクト用のコードとデータは以下の通りです。
関連論文リスト
- The Challenge of Identifying the Origin of Black-Box Large Language Models [34.284190160785336]
サードパーティは、微調整によって大きな言語モデル(LLM)をカスタマイズでき、ブラックボックスのAPIアクセスのみを提供する。
この慣行は不正競争を悪化させるだけでなく、ライセンス契約に違反している。
本稿では,LLMに逆トークン埋め込みを積極的にプラグインしてトレースと識別を行うPlugAEを提案する。
論文 参考訳(メタデータ) (2025-03-06T11:30:32Z) - Disparities in LLM Reasoning Accuracy and Explanations: A Case Study on African American English [66.97110551643722]
本研究では,Large Language Models (LLMs) 推論タスクにおける方言の相違について検討する。
LLMは、AAE入力に対するより正確な応答とより単純な推論チェーンと説明を生成する。
これらの知見は、LLMの処理方法と異なる言語品種の理由の体系的差異を浮き彫りにした。
論文 参考訳(メタデータ) (2025-03-06T05:15:34Z) - CALM: Curiosity-Driven Auditing for Large Language Models [27.302357350862085]
本稿では,LLMを監査エージェントとして微調整するために,大規模言語モデルのための好奇心駆動型監査(CALM)を提案する。
CALMは、有名人を含む嫌悪的な完成をうまく識別し、ブラックボックス設定の下で特定の名前を引き出す入力を明らかにする。
論文 参考訳(メタデータ) (2025-01-06T13:14:34Z) - Large Language Models Reflect the Ideology of their Creators [71.65505524599888]
大規模言語モデル(LLM)は、自然言語を生成するために大量のデータに基づいて訓練される。
本稿では, LLMのイデオロギー的姿勢が創造者の世界観を反映していることを示す。
論文 参考訳(メタデータ) (2024-10-24T04:02:30Z) - A Canary in the AI Coal Mine: American Jews May Be Disproportionately Harmed by Intellectual Property Dispossession in Large Language Model Training [8.552421383542336]
ユダヤ系アメリカ人が著した不当な量のコンテンツが、彼らの同意なしに訓練に使われていることがわかりました。
LLMは、トレーニングデータを制作した人々の有給労働の代わりになる可能性があるため、今後数年でユダヤ人アメリカ人にさらに実質的で不均等な経済被害をもたらす可能性がある。
論文 参考訳(メタデータ) (2024-03-19T18:07:39Z) - See the Unseen: Better Context-Consistent Knowledge-Editing by Noises [73.54237379082795]
知識編集が大規模言語モデル(LLM)の知識を更新
既存の作業はこの特性を無視し、編集には一般化が欠けている。
実験により、異なる文脈がLLMに与える影響は、同じ知識を思い出す際にガウス的な分布に従うことが判明した。
論文 参考訳(メタデータ) (2024-01-15T09:09:14Z) - What Do Llamas Really Think? Revealing Preference Biases in Language
Model Representations [62.91799637259657]
大規模言語モデル(LLMs)は、応答を辞退しても、社会的な偏見を示すか?
本研究は,文脈的埋め込みを探索し,このバイアスが潜在表現にエンコードされているかどうかを探索することによって検討する。
単語の隠れベクトルからLLMの単語ペア選好を予測するロジスティックなBradley-Terryプローブを提案する。
論文 参考訳(メタデータ) (2023-11-30T18:53:13Z) - AlignedCoT: Prompting Large Language Models via Native-Speaking Demonstrations [52.43593893122206]
Alignedcotは、大規模言語モデルを呼び出すためのコンテキスト内学習技術である。
ゼロショットシナリオでは、一貫した正しいステップワイズプロンプトを達成する。
数学的推論とコモンセンス推論の実験を行う。
論文 参考訳(メタデータ) (2023-11-22T17:24:21Z) - In-Context Impersonation Reveals Large Language Models' Strengths and
Biases [56.61129643802483]
我々は、視覚と言語タスクを解く前に、LLMに異なるペルソナを仮定するよう依頼する。
異なる年齢の子どものふりをしたLSMが、ヒトのような発達段階を回復することがわかった。
言語に基づく推論タスクでは、ドメインエキスパートを装うLLMが、ドメイン専門家を装うLLMよりも優れた性能を発揮する。
論文 参考訳(メタデータ) (2023-05-24T09:13:15Z) - Evaluation of African American Language Bias in Natural Language
Generation [9.823804049740916]
ホワイト・メインストリーム・イングリッシュ(WME)と比較して,LLMがアフリカ系アメリカ人言語(AAL)をいかに理解しているかを評価する。
提案するコントリビューションには,(1)2つの言語生成タスクにおける6つの事前訓練された大規模言語モデルの評価,(2)WMEにおける人間アノテーションによる複数の文脈からのAALテキストの新たなデータセット,(3)AAL特徴の理解の欠如に関するバイアスと傾向の同定を示唆するモデルパフォーマンスギャップの文書化などが含まれる。
論文 参考訳(メタデータ) (2023-05-23T17:34:37Z) - Event knowledge in large language models: the gap between the impossible
and the unlikely [46.540380831486125]
我々は,事前学習された大規模言語モデル (LLM) がイベント知識を持つことを示す。
彼らはほぼ常に、不可能な事象に対して高い確率を割り当てる。
しかし、おそらくは起こりそうもない出来事に対して、一貫性のない選好を示す。
論文 参考訳(メタデータ) (2022-12-02T23:43:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。