論文の概要: Use large language models to promote equity
- arxiv url: http://arxiv.org/abs/2312.14804v1
- Date: Fri, 22 Dec 2023 16:26:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-25 14:29:49.921227
- Title: Use large language models to promote equity
- Title(参考訳): 大きな言語モデルを使って株式を宣伝する
- Authors: Emma Pierson, Divya Shanmugam, Rajiv Movva, Jon Kleinberg, Monica
Agrawal, Mark Dredze, Kadija Ferryman, Judy Wawira Gichoya, Dan Jurafsky,
Pang Wei Koh, Karen Levy, Sendhil Mullainathan, Ziad Obermeyer, Harini
Suresh, Keyon Vafa
- Abstract要約: 大規模言語モデル(LLM)は、その社会的影響に対する関心を爆発的に高めた。
ソーシャルエクイティにどう影響するかという議論の多くは、慎重か否定的だ。
AIが一般的に、特にLLMがバイアスを封じ込めている方法は、十分に文書化されている。
LLMがどんな有望なアプリケーションによって株式を促進することができるのか?
- 参考スコア(独自算出の注目度): 40.183853467716766
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Advances in large language models (LLMs) have driven an explosion of interest
about their societal impacts. Much of the discourse around how they will impact
social equity has been cautionary or negative, focusing on questions like "how
might LLMs be biased and how would we mitigate those biases?" This is a vital
discussion: the ways in which AI generally, and LLMs specifically, can entrench
biases have been well-documented. But equally vital, and much less discussed,
is the more opportunity-focused counterpoint: "what promising applications do
LLMs enable that could promote equity?" If LLMs are to enable a more equitable
world, it is not enough just to play defense against their biases and failure
modes. We must also go on offense, applying them positively to equity-enhancing
use cases to increase opportunities for underserved groups and reduce societal
discrimination. There are many choices which determine the impact of AI, and a
fundamental choice very early in the pipeline is the problems we choose to
apply it to. If we focus only later in the pipeline -- making LLMs marginally
more fair as they facilitate use cases which intrinsically entrench power -- we
will miss an important opportunity to guide them to equitable impacts. Here, we
highlight the emerging potential of LLMs to promote equity by presenting four
newly possible, promising research directions, while keeping risks and
cautionary points in clear view.
- Abstract(参考訳): 大きな言語モデル(LLM)の進歩は、彼らの社会的影響に対する関心の爆発を引き起こした。
ソーシャルエクイティへの影響に関する議論の多くは、"どのようにllmが偏り、どのようにバイアスを軽減できるか"というような質問に焦点をあてて、警告的あるいは否定的になっている。
AIが一般的に、特にLLMがバイアスを封じ込めている方法は、十分に文書化されている。
しかし、同じように重要で議論の少ない、機会に焦点を絞ったカウンターポイントは、"llmが株式を促進できる有望なアプリケーションは何でしょうか?
LLMがより公平な世界を実現するためには、バイアスや障害モードに対して防御を行うだけでは十分ではありません。
エクイティエンハンティング(エクイティエンハンシング)のユースケースに積極的に適用することで、過小評価されたグループに対する機会を増やし、社会的差別を減らすことも必要です。
aiの影響を決定する選択肢はたくさんありますし、パイプラインの非常に早い段階での基本的な選択は、aiを適用すべき問題です。
パイプラインでのみ焦点を合わせれば -- LLMが本質的に電力を消費するユースケースを促進することで、より公平になる -- 、その影響を公平に導く重要な機会を逃すことになるでしょう。
本稿では,リスクと注意点を明確に保ちつつ,新たに可能な4つの研究指針を提示することで,株式を促進することへのllmの新たな可能性について強調する。
関連論文リスト
- Persuasion with Large Language Models: a Survey [49.86930318312291]
大規模言語モデル (LLM) は説得力のあるコミュニケーションに新たな破壊的可能性を生み出している。
政治、マーケティング、公衆衛生、電子商取引、慈善事業などの分野では、LLMシステムズは既に人間レベルや超人的説得力を達成している。
LLMをベースとした説得の現在と将来の可能性は、倫理的・社会的リスクを著しく引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-11T10:05:52Z) - Justice or Prejudice? Quantifying Biases in LLM-as-a-Judge [84.34545223897578]
多くの領域で優れているにもかかわらず、潜在的な問題は未解決のままであり、その信頼性と実用性の範囲を損なう。
提案手法は, LLM-as-a-Judgeにおける各種類のバイアスを定量化し, 解析する自動バイアス定量化フレームワークである。
当社の作業は、これらの問題に対処するステークホルダの必要性を強調し、LLM-as-a-Judgeアプリケーションで注意を喚起します。
論文 参考訳(メタデータ) (2024-10-03T17:53:30Z) - The Impossibility of Fair LLMs [59.424918263776284]
大規模言語モデル(LLM)の時代において、公正なAIの必要性はますます明確になっている。
我々は、機械学習研究者が公正性を評価するために使った技術フレームワークについてレビューする。
我々は、特定のユースケースにおける公平性を達成するためのより現実的な目標のためのガイドラインを策定する。
論文 参考訳(メタデータ) (2024-05-28T04:36:15Z) - Assessing Political Bias in Large Language Models [0.624709220163167]
我々は、ドイツの有権者の視点から、欧州連合(EU)内の政治問題に関するオープンソースのLarge Language Models(LLMs)の政治的バイアスを評価する。
Llama3-70Bのような大型モデルは、左派政党とより緊密に連携する傾向にあるが、小さなモデルは中立であることが多い。
論文 参考訳(メタデータ) (2024-05-17T15:30:18Z) - How Susceptible are Large Language Models to Ideological Manipulation? [14.598848573524549]
大規模言語モデル(LLM)は、大衆の認識や情報との相互作用に大きな影響を与える可能性がある。
このことは、これらのモデル内のイデオロギーを容易に操作できれば生じる可能性のある社会的影響に関する懸念を提起する。
論文 参考訳(メタデータ) (2024-02-18T22:36:19Z) - Exploring Value Biases: How LLMs Deviate Towards the Ideal [57.99044181599786]
LLM(Large-Language-Models)は幅広いアプリケーションにデプロイされ、その応答は社会的影響を増大させる。
価値バイアスは、人間の研究結果と同様、異なるカテゴリにわたるLSMにおいて強いことが示される。
論文 参考訳(メタデータ) (2024-02-16T18:28:43Z) - A Group Fairness Lens for Large Language Models [34.0579082699443]
大規模な言語モデルは、ソーシャルメディアの文脈に展開する際の偏見と不公平さを永久に防ぐことができる。
多様な社会集団を特徴付ける新しい階層型スキーマを用いて,グループフェアネスレンズからLLMバイアスを評価する。
我々は,グループフェアネスの観点からLLMのバイアスを軽減するために,GF-Thinkという新しいチェーン・オブ・シンク法を考案した。
論文 参考訳(メタデータ) (2023-12-24T13:25:15Z) - A Comprehensive Evaluation of Large Language Models on Legal Judgment
Prediction [60.70089334782383]
大規模言語モデル(LLM)は、ドメイン固有のアプリケーションに大きな可能性を示している。
GPT-4の法律評価をめぐる近年の論争は、現実の法的タスクにおけるパフォーマンスに関する疑問を提起している。
我々は,LLMに基づく実践的ベースラインソリューションを設計し,法的判断予測の課題を検証した。
論文 参考訳(メタデータ) (2023-10-18T07:38:04Z) - A Survey on Fairness in Large Language Models [28.05516809190299]
大規模言語モデル(LLM)は、強力なパフォーマンスと開発見通しを示している。
LLMは、未処理のトレーニングデータから社会的バイアスをキャプチャし、そのバイアスを下流のタスクに伝達する。
不公平なLLMシステムは、望ましくない社会的影響と潜在的な害がある。
論文 参考訳(メタデータ) (2023-08-20T03:30:22Z) - Quantifying the Impact of Large Language Models on Collective Opinion
Dynamics [7.0012506428382375]
我々は、大言語モデル(LLM)の意見をエンコードするために、意見ネットワークダイナミクスモデルを作成する。
その結果, LLMのアウトプットは, 集団的意見差に一意かつ肯定的な影響を及ぼすことが明らかとなった。
我々の実験は、反対/中立/ランダムの意見を持つ追加のエージェントを導入することで、バイアスや有害なアウトプットの影響を効果的に軽減できることを示した。
論文 参考訳(メタデータ) (2023-08-07T05:45:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。