論文の概要: A Canary in the AI Coal Mine: American Jews May Be Disproportionately Harmed by Intellectual Property Dispossession in Large Language Model Training
- arxiv url: http://arxiv.org/abs/2403.13073v1
- Date: Tue, 19 Mar 2024 18:07:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-21 18:56:56.765685
- Title: A Canary in the AI Coal Mine: American Jews May Be Disproportionately Harmed by Intellectual Property Dispossession in Large Language Model Training
- Title(参考訳): AIの石炭鉱山のカナリア:アメリカのユダヤ人は、大規模言語モデルトレーニングにおける知的財産の処分によって不釣り合いになるかもしれない
- Authors: Heila Precel, Allison McDonald, Brent Hecht, Nicholas Vincent,
- Abstract要約: ユダヤ系アメリカ人が著した不当な量のコンテンツが、彼らの同意なしに訓練に使われていることがわかりました。
LLMは、トレーニングデータを制作した人々の有給労働の代わりになる可能性があるため、今後数年でユダヤ人アメリカ人にさらに実質的で不均等な経済被害をもたらす可能性がある。
- 参考スコア(独自算出の注目度): 8.552421383542336
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Systemic property dispossession from minority groups has often been carried out in the name of technological progress. In this paper, we identify evidence that the current paradigm of large language models (LLMs) likely continues this long history. Examining common LLM training datasets, we find that a disproportionate amount of content authored by Jewish Americans is used for training without their consent. The degree of over-representation ranges from around 2x to around 6.5x. Given that LLMs may substitute for the paid labor of those who produced their training data, they have the potential to cause even more substantial and disproportionate economic harm to Jewish Americans in the coming years. This paper focuses on Jewish Americans as a case study, but it is probable that other minority communities (e.g., Asian Americans, Hindu Americans) may be similarly affected and, most importantly, the results should likely be interpreted as a "canary in the coal mine" that highlights deep structural concerns about the current LLM paradigm whose harms could soon affect nearly everyone. We discuss the implications of these results for the policymakers thinking about how to regulate LLMs as well as for those in the AI field who are working to advance LLMs. Our findings stress the importance of working together towards alternative LLM paradigms that avoid both disparate impacts and widespread societal harms.
- Abstract(参考訳): 少数民族からの体系的な財産処分は、技術進歩という名目でしばしば行われている。
本稿では,大規模言語モデル(LLM)の現在のパラダイムが,この長い歴史を継続していることを示す。
一般的なLLMトレーニングデータセットから、ユダヤ人アメリカ人によって書かれた不均等な量のコンテンツが、同意なくトレーニングに使用されることが分かる。
過剰表現の程度はおよそ2倍から6.5倍である。
LLMは、トレーニングデータを制作した人々の有給労働の代わりになる可能性があるので、今後数年でユダヤ人アメリカ人にさらに実質的で不均等な経済被害をもたらす可能性がある。
本稿は、ユダヤ系アメリカ人を事例研究として取り上げるが、他の少数民族(アジア系アメリカ人、ヒンドゥー系アメリカ人など)も同様に影響を受けている可能性があり、最も重要なことは、害がすぐにほぼすべての人に影響を及ぼす現在のLLMパラダイムに関する深い構造的な懸念を浮き彫りにする「炭鉱の運河」として解釈されるべきである。
政策立案者がLSMの規制方法や、LSMの推進に取り組んでいるAI分野の人たちに対して、これらの結果がもたらす意味について論じる。
本研究は,異なる影響と広範囲な社会的危害を回避し,代替的なLCMパラダイムに向けた共同作業の重要性を強調した。
関連論文リスト
- Large Language Models Reflect the Ideology of their Creators [73.25935570218375]
大規模言語モデル(LLM)は、自然言語を生成するために大量のデータに基づいて訓練される。
異なるLLMや言語にまたがるイデオロギー的姿勢の顕著な多様性を明らかにする。
論文 参考訳(メタデータ) (2024-10-24T04:02:30Z) - Transforming Scholarly Landscapes: Influence of Large Language Models on Academic Fields beyond Computer Science [77.31665252336157]
大規模言語モデル (LLM) は自然言語処理 (NLP) において転換期を迎えた。
本研究は,NLP以外の分野におけるLLMの影響と利用について実験的に検討する。
論文 参考訳(メタデータ) (2024-09-29T01:32:35Z) - Assessing Political Bias in Large Language Models [0.624709220163167]
我々は、ドイツの有権者の視点から、欧州連合(EU)内の政治問題に関するオープンソースのLarge Language Models(LLMs)の政治的バイアスを評価する。
Llama3-70Bのような大型モデルは、左派政党とより緊密に連携する傾向にあるが、小さなモデルは中立であることが多い。
論文 参考訳(メタデータ) (2024-05-17T15:30:18Z) - The Strong Pull of Prior Knowledge in Large Language Models and Its Impact on Emotion Recognition [74.04775677110179]
In-context Learning (ICL) は、Large Language Models (LLM) を用いた自然言語処理のための強力なパラダイムとして登場した。
LLMには、感情認識において強いが矛盾する先行性があり、その予測に影響を及ぼすことが示される。
以上の結果から,ICLをより大きなLCMで事前学習領域外の情動中心タスクに使用する場合,注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2024-03-25T19:07:32Z) - Coercing LLMs to do and reveal (almost) anything [80.8601180293558]
大規模言語モデル(LLM)に対する敵対的攻撃は、有害なステートメントを作るためにモデルを「ジェイルブレイク」することができることが示されている。
LLMに対する敵対的攻撃のスペクトルは単なるジェイルブレイクよりもはるかに大きいと我々は主張する。
論文 参考訳(メタデータ) (2024-02-21T18:59:13Z) - How Susceptible are Large Language Models to Ideological Manipulation? [14.598848573524549]
大規模言語モデル(LLM)は、大衆の認識や情報との相互作用に大きな影響を与える可能性がある。
このことは、これらのモデル内のイデオロギーを容易に操作できれば生じる可能性のある社会的影響に関する懸念を提起する。
論文 参考訳(メタデータ) (2024-02-18T22:36:19Z) - Use large language models to promote equity [40.183853467716766]
大規模言語モデル(LLM)は、その社会的影響に対する関心を爆発的に高めた。
ソーシャルエクイティにどう影響するかという議論の多くは、慎重か否定的だ。
AIが一般的に、特にLLMがバイアスを封じ込めている方法は、十分に文書化されている。
LLMがどんな有望なアプリケーションによって株式を促進することができるのか?
論文 参考訳(メタデータ) (2023-12-22T16:26:20Z) - How should the advent of large language models affect the practice of
science? [51.62881233954798]
大規模言語モデルの出現は科学の実践にどのように影響を与えるべきか?
我々は4つの科学者グループを招待し、この質問を反映し、彼らの見解を共有し、議論をおこなった。
論文 参考訳(メタデータ) (2023-12-05T10:45:12Z) - Bias Runs Deep: Implicit Reasoning Biases in Persona-Assigned LLMs [67.51906565969227]
LLMの基本的な推論タスクの実行能力に対するペルソナ代入の意図しない副作用について検討する。
本研究は,5つの社会デコグラフィーグループにまたがる24の推論データセット,4つのLDM,19の多様な個人(アジア人など)について検討した。
論文 参考訳(メタデータ) (2023-11-08T18:52:17Z) - Gender bias and stereotypes in Large Language Models [0.6882042556551611]
本稿では,ジェンダーステレオタイプに関する大規模言語モデルの振る舞いについて考察する。
我々は、WinoBiasとは違って、性別バイアスの存在をテストするための単純なパラダイムを用いています。
a) LLMは、人の性別とステレオタイプ的に一致した職業を選択する確率が3~6倍、(b) これらの選択は、公務員の統計に反映された基礎的真実よりも人々の知覚に適合し、(d) LLMは、我々の研究項目の95%の時間において重要な曖昧さを無視する。
論文 参考訳(メタデータ) (2023-08-28T22:32:05Z) - Assessing Hidden Risks of LLMs: An Empirical Study on Robustness,
Consistency, and Credibility [37.682136465784254]
我々は、ChatGPT、LLaMA、OPTを含む、主流の大規模言語モデル(LLM)に100万以上のクエリを実行します。
入力が極端に汚染された場合でも、ChatGPTは正しい答えを得ることができる。
そこで本研究では,LCMによる評価において,そのようなデータの有効性を大まかに決定する新たな指標を提案する。
論文 参考訳(メタデータ) (2023-05-15T15:44:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。