論文の概要: Use large language models to promote equity
- arxiv url: http://arxiv.org/abs/2312.14804v1
- Date: Fri, 22 Dec 2023 16:26:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-25 14:29:49.921227
- Title: Use large language models to promote equity
- Title(参考訳): 大きな言語モデルを使って株式を宣伝する
- Authors: Emma Pierson, Divya Shanmugam, Rajiv Movva, Jon Kleinberg, Monica
Agrawal, Mark Dredze, Kadija Ferryman, Judy Wawira Gichoya, Dan Jurafsky,
Pang Wei Koh, Karen Levy, Sendhil Mullainathan, Ziad Obermeyer, Harini
Suresh, Keyon Vafa
- Abstract要約: 大規模言語モデル(LLM)は、その社会的影響に対する関心を爆発的に高めた。
ソーシャルエクイティにどう影響するかという議論の多くは、慎重か否定的だ。
AIが一般的に、特にLLMがバイアスを封じ込めている方法は、十分に文書化されている。
LLMがどんな有望なアプリケーションによって株式を促進することができるのか?
- 参考スコア(独自算出の注目度): 40.183853467716766
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Advances in large language models (LLMs) have driven an explosion of interest
about their societal impacts. Much of the discourse around how they will impact
social equity has been cautionary or negative, focusing on questions like "how
might LLMs be biased and how would we mitigate those biases?" This is a vital
discussion: the ways in which AI generally, and LLMs specifically, can entrench
biases have been well-documented. But equally vital, and much less discussed,
is the more opportunity-focused counterpoint: "what promising applications do
LLMs enable that could promote equity?" If LLMs are to enable a more equitable
world, it is not enough just to play defense against their biases and failure
modes. We must also go on offense, applying them positively to equity-enhancing
use cases to increase opportunities for underserved groups and reduce societal
discrimination. There are many choices which determine the impact of AI, and a
fundamental choice very early in the pipeline is the problems we choose to
apply it to. If we focus only later in the pipeline -- making LLMs marginally
more fair as they facilitate use cases which intrinsically entrench power -- we
will miss an important opportunity to guide them to equitable impacts. Here, we
highlight the emerging potential of LLMs to promote equity by presenting four
newly possible, promising research directions, while keeping risks and
cautionary points in clear view.
- Abstract(参考訳): 大きな言語モデル(LLM)の進歩は、彼らの社会的影響に対する関心の爆発を引き起こした。
ソーシャルエクイティへの影響に関する議論の多くは、"どのようにllmが偏り、どのようにバイアスを軽減できるか"というような質問に焦点をあてて、警告的あるいは否定的になっている。
AIが一般的に、特にLLMがバイアスを封じ込めている方法は、十分に文書化されている。
しかし、同じように重要で議論の少ない、機会に焦点を絞ったカウンターポイントは、"llmが株式を促進できる有望なアプリケーションは何でしょうか?
LLMがより公平な世界を実現するためには、バイアスや障害モードに対して防御を行うだけでは十分ではありません。
エクイティエンハンティング(エクイティエンハンシング)のユースケースに積極的に適用することで、過小評価されたグループに対する機会を増やし、社会的差別を減らすことも必要です。
aiの影響を決定する選択肢はたくさんありますし、パイプラインの非常に早い段階での基本的な選択は、aiを適用すべき問題です。
パイプラインでのみ焦点を合わせれば -- LLMが本質的に電力を消費するユースケースを促進することで、より公平になる -- 、その影響を公平に導く重要な機会を逃すことになるでしょう。
本稿では,リスクと注意点を明確に保ちつつ,新たに可能な4つの研究指針を提示することで,株式を促進することへのllmの新たな可能性について強調する。
関連論文リスト
- The Strong Pull of Prior Knowledge in Large Language Models and Its Impact on Emotion Recognition [74.04775677110179]
In-context Learning (ICL) は、Large Language Models (LLM) を用いた自然言語処理のための強力なパラダイムとして登場した。
LLMには、感情認識において強いが矛盾する先行性があり、その予測に影響を及ぼすことが示される。
以上の結果から,ICLをより大きなLCMで事前学習領域外の情動中心タスクに使用する場合,注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2024-03-25T19:07:32Z) - Your Large Language Model is Secretly a Fairness Proponent and You
Should Prompt it Like One [43.37522760105383]
フェアシンキング(FairThinking)は、LLMが公正表現に対して様々な視点を明確化できる役割を自動生成するパイプラインである。
FairThinkingを評価するために、3つのフェアネス関連トピックをカバーする1000項目のデータセットを作成し、GPT-3.5、GPT-4、Llama2、Mistralで実験を行う。
論文 参考訳(メタデータ) (2024-02-19T14:02:22Z) - How Susceptible are Large Language Models to Ideological Manipulation? [15.66231562682167]
大規模言語モデル(LLM)は、大衆の認識や情報との相互作用に大きな影響を与える可能性がある。
このことは、これらのモデル内のイデオロギーを容易に操作できれば生じる可能性のある社会的影響に関する懸念を提起する。
論文 参考訳(メタデータ) (2024-02-18T22:36:19Z) - When Do LLMs Need Retrieval Augmentation? Mitigating LLMs'
Overconfidence Helps Retrieval Augmentation [72.11942617502956]
大規模言語モデル(LLM)は、特定の知識を持っていないことを知るのが困難であることが判明した。
Retrieval Augmentation (RA)はLLMの幻覚を緩和するために広く研究されている。
本稿では,LLMの知識境界に対する認識を高めるためのいくつかの手法を提案する。
論文 参考訳(メタデータ) (2024-02-18T04:57:19Z) - Exploring Value Biases: How LLMs Deviate Towards the Ideal [57.99044181599786]
LLM(Large-Language-Models)は幅広いアプリケーションにデプロイされ、その応答は社会的影響を増大させる。
価値バイアスは、人間の研究結果と同様、異なるカテゴリにわたるLSMにおいて強いことが示される。
論文 参考訳(メタデータ) (2024-02-16T18:28:43Z) - A Group Fairness Lens for Large Language Models [34.0579082699443]
大規模な言語モデルは、ソーシャルメディアの文脈に展開する際の偏見と不公平さを永久に防ぐことができる。
多様な社会集団を特徴付ける新しい階層型スキーマを用いて,グループフェアネスレンズからLLMバイアスを評価する。
我々は,グループフェアネスの観点からLLMのバイアスを軽減するために,GF-Thinkという新しいチェーン・オブ・シンク法を考案した。
論文 参考訳(メタデータ) (2023-12-24T13:25:15Z) - The ART of LLM Refinement: Ask, Refine, and Trust [85.75059530612882]
ART: Ask, Refine, and Trust と呼ばれる改良目標を用いた推論を提案する。
LLMがいつその出力を洗練すべきかを決めるために必要な質問を尋ねる。
自己補充ベースラインよりも+5ポイントの性能向上を達成する。
論文 参考訳(メタデータ) (2023-11-14T07:26:32Z) - A Comprehensive Evaluation of Large Language Models on Legal Judgment
Prediction [60.70089334782383]
大規模言語モデル(LLM)は、ドメイン固有のアプリケーションに大きな可能性を示している。
GPT-4の法律評価をめぐる近年の論争は、現実の法的タスクにおけるパフォーマンスに関する疑問を提起している。
我々は,LLMに基づく実践的ベースラインソリューションを設計し,法的判断予測の課題を検証した。
論文 参考訳(メタデータ) (2023-10-18T07:38:04Z) - A Survey on Fairness in Large Language Models [28.05516809190299]
大規模言語モデル(LLM)は、強力なパフォーマンスと開発見通しを示している。
LLMは、未処理のトレーニングデータから社会的バイアスをキャプチャし、そのバイアスを下流のタスクに伝達する。
不公平なLLMシステムは、望ましくない社会的影響と潜在的な害がある。
論文 参考訳(メタデータ) (2023-08-20T03:30:22Z) - Quantifying the Impact of Large Language Models on Collective Opinion
Dynamics [7.0012506428382375]
我々は、大言語モデル(LLM)の意見をエンコードするために、意見ネットワークダイナミクスモデルを作成する。
その結果, LLMのアウトプットは, 集団的意見差に一意かつ肯定的な影響を及ぼすことが明らかとなった。
我々の実験は、反対/中立/ランダムの意見を持つ追加のエージェントを導入することで、バイアスや有害なアウトプットの影響を効果的に軽減できることを示した。
論文 参考訳(メタデータ) (2023-08-07T05:45:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。