論文の概要: From Bytes to Biases: Investigating the Cultural Self-Perception of
Large Language Models
- arxiv url: http://arxiv.org/abs/2312.17256v1
- Date: Thu, 21 Dec 2023 22:50:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-15 12:49:01.225681
- Title: From Bytes to Biases: Investigating the Cultural Self-Perception of
Large Language Models
- Title(参考訳): バイトからバイアスへ:大規模言語モデルの文化的自己受容の研究
- Authors: Wolfgang Messner, Tatum Greene, Josephine Matalone
- Abstract要約: 大型言語モデル(LLM)は、人間と自然に聞こえる会話を行うことができる。
GenAI技術は、トレーニング対象の大規模なデータセットによって導入された幻覚、誤報、および表示バイアスとして知られています。
本研究は, GLOBEプロジェクトに由来する価値質問をChatGPTとBardに促すことにより, LLMの文化的自己認識を探求するものである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Large language models (LLMs) are able to engage in natural-sounding
conversations with humans, showcasing unprecedented capabilities for
information retrieval and automated decision support. They have disrupted
human-technology interaction and the way businesses operate. However,
technologies based on generative artificial intelligence (GenAI) are known to
hallucinate, misinform, and display biases introduced by the massive datasets
on which they are trained. Existing research indicates that humans may
unconsciously internalize these biases, which can persist even after they stop
using the programs. This study explores the cultural self-perception of LLMs by
prompting ChatGPT (OpenAI) and Bard (Google) with value questions derived from
the GLOBE project. The findings reveal that their cultural self-perception is
most closely aligned with the values of English-speaking countries and
countries characterized by sustained economic competitiveness. Recognizing the
cultural biases of LLMs and understanding how they work is crucial for all
members of society because one does not want the black box of artificial
intelligence to perpetuate bias in humans, who might, in turn, inadvertently
create and train even more biased algorithms.
- Abstract(参考訳): 大規模言語モデル(LLM)は、人間との自然な会話に関わり、情報検索と自動決定支援のための前例のない能力を示す。
彼らは人間とテクノロジーの相互作用とビジネスの運営方法を破壊してきた。
しかし、生成人工知能(GenAI)に基づく技術は、訓練対象の大規模なデータセットによって導入される幻覚、誤報、表示バイアスとして知られている。
既存の研究によると、人間はこれらのバイアスを無意識的に内部化し、プログラムの使用をやめた後も持続する可能性がある。
本研究は,GLOBEプロジェクトから得られた価値質問を,ChatGPT(OpenAI)とBard(Google)に促すことにより,LLMの文化的自己認識を探求する。
その結果,その文化的自己受容は,持続的な経済競争力を特徴とする英語を話す国や国の価値観と最も密接に一致していることが判明した。
LLMの文化的バイアスを認識し、どのように機能するかを理解することは、人工知能のブラックボックスが人間のバイアスを永続させるのを望んでいないため、社会のすべてのメンバーにとって不可欠である。
関連論文リスト
- Generative AI, Pragmatics, and Authenticity in Second Language Learning [0.0]
生成的AI(Artificial Intelligence)を言語学習と教育に統合する上で、明らかなメリットがある。
しかし、AIシステムが人間の言語に耐える方法のため、人間と同じ社会的認識を持つ言語を使えるような、生きた経験が欠けている。
言語や文化のバイアスは、そのトレーニングデータに基づいて構築されており、主に英語であり、主に西洋の情報源から来ている。
論文 参考訳(メタデータ) (2024-10-18T11:58:03Z) - Empirical evidence of Large Language Model's influence on human spoken communication [25.09136621615789]
人工知能(AI)エージェントは、今や自然言語で何十億もの人間と対話する。
このことは、AIが人間の文化の基本的な側面を形成する可能性を秘めているかどうか、という疑問を提起する。
最近の分析によると、科学出版物はAI固有の言語の証拠をすでに示している。
論文 参考訳(メタデータ) (2024-09-03T10:01:51Z) - Are Large Language Models Really Bias-Free? Jailbreak Prompts for Assessing Adversarial Robustness to Bias Elicitation [0.0]
大規模言語モデル(LLM)は人工知能に革命をもたらし、卓越した計算能力と言語能力を示している。
これらのモデルは本質的に、トレーニングデータから生じる様々なバイアスに起因している。
本研究は,近年のLCMの応答におけるこれらのバイアスの存在について検討し,その公正さと信頼性への影響を分析した。
論文 参考訳(メタデータ) (2024-07-11T12:30:19Z) - Distributed agency in second language learning and teaching through generative AI [0.0]
ChatGPTは、テキストまたは音声形式のチャットを通じて非公式な第二言語プラクティスを提供することができる。
インストラクタはAIを使って、さまざまなメディアで学習と評価材料を構築することができる。
論文 参考訳(メタデータ) (2024-03-29T14:55:40Z) - Large language models surpass human experts in predicting neuroscience results [60.26891446026707]
大きな言語モデル(LLM)は、人間の専門家よりも新しい結果を予測する。
BrainBenchは神経科学の結果を予測するためのベンチマークだ。
我々のアプローチは神経科学に特有ではなく、他の知識集約的な取り組みに伝達可能である。
論文 参考訳(メタデータ) (2024-03-04T15:27:59Z) - Factuality Challenges in the Era of Large Language Models [113.3282633305118]
大規模言語モデル(LLM)は、誤った、誤った、あるいは誤解を招くコンテンツを生成する。
LLMは悪意のあるアプリケーションに利用することができる。
これは、ユーザーを欺く可能性があるという点で、社会に重大な課題をもたらす。
論文 参考訳(メタデータ) (2023-10-08T14:55:02Z) - Brain in a Vat: On Missing Pieces Towards Artificial General
Intelligence in Large Language Models [83.63242931107638]
本稿では,知的エージェントの4つの特徴について述べる。
実世界の物体との活発な関わりは、概念的表現を形成するためのより堅牢な信号をもたらすと我々は主張する。
我々は、人工知能分野における将来的な研究の方向性を概説して結論付ける。
論文 参考訳(メタデータ) (2023-07-07T13:58:16Z) - CBBQ: A Chinese Bias Benchmark Dataset Curated with Human-AI
Collaboration for Large Language Models [52.25049362267279]
本稿では,人的専門家と生成言語モデルによって共同で構築された100万以上の質問からなる中国語バイアスベンチマークデータセットを提案する。
データセットのテストインスタンスは、手作業による厳格な品質管理を備えた3K以上の高品質テンプレートから自動的に抽出される。
大規模な実験により、データセットがモデルバイアスを検出することの有効性が実証された。
論文 参考訳(メタデータ) (2023-06-28T14:14:44Z) - Do Large Language Models Know What They Don't Know? [74.65014158544011]
大規模言語モデル(LLM)は、様々な自然言語処理(NLP)タスクに優れた知識を持つ。
膨大な知識にもかかわらず、LLMはそれらが適合し理解できる情報の量によって制限されている。
本研究の目的は,LLMの自己理解能力を評価することである。
論文 参考訳(メタデータ) (2023-05-29T15:30:13Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Cultural Incongruencies in Artificial Intelligence [5.817158625734485]
我々は、AIベースの言語とビジョン技術の文脈において、文化的な依存関係と矛盾のセットについて説明する。
これらの技術が世界規模で多様な社会や文化と相互作用し、異なる価値と解釈の実践によって問題が発生する。
論文 参考訳(メタデータ) (2022-11-19T18:45:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。