論文の概要: Large Language Model Soft Ideologization via AI-Self-Consciousness
- arxiv url: http://arxiv.org/abs/2309.16167v1
- Date: Thu, 28 Sep 2023 04:47:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-29 15:59:19.061666
- Title: Large Language Model Soft Ideologization via AI-Self-Consciousness
- Title(参考訳): ai自己意識による大規模言語モデルソフトイデオロギー化
- Authors: Xiaotian Zhou, Qian Wang, Xiaofeng Wang, Haixu Tang, Xiaozhong Liu
- Abstract要約: 大規模言語モデル(LLM)は、多岐にわたる自然言語タスクにおいて、人間レベルのパフォーマンスを実証している。
本研究は,AI自己意識を用いたGPTソフトイデオロギーの意義を考察する。
- 参考スコア(独自算出の注目度): 25.99169821531019
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) have demonstrated human-level performance on a
vast spectrum of natural language tasks. However, few studies have addressed
the LLM threat and vulnerability from an ideology perspective, especially when
they are increasingly being deployed in sensitive domains, e.g., elections and
education. In this study, we explore the implications of GPT soft
ideologization through the use of AI-self-consciousness. By utilizing GPT
self-conversations, AI can be granted a vision to "comprehend" the intended
ideology, and subsequently generate finetuning data for LLM ideology injection.
When compared to traditional government ideology manipulation techniques, such
as information censorship, LLM ideologization proves advantageous; it is easy
to implement, cost-effective, and powerful, thus brimming with risks.
- Abstract(参考訳): 大規模言語モデル(LLM)は、多岐にわたる自然言語タスクにおいて人間レベルの性能を示す。
しかしながら、LLMの脅威と脆弱性をイデオロギーの観点から論じる研究はほとんどなく、特に選挙や教育といったセンシティブな分野への展開が増えている。
本研究では,AI自己意識を用いたGPTソフトイデオロギーの意義を考察する。
GPTの自己会話を利用することで、AIは意図したイデオロギーを"理解"し、LLMイデオロギー注入のための微調整データを生成できる。
情報検閲のような従来の政府のイデオロギー操作技術と比較すると、LCMのイデオロギー化は有利である。
関連論文リスト
- Large Language Models Reflect the Ideology of their Creators [73.25935570218375]
大規模言語モデル(LLM)は、自然言語を生成するために大量のデータに基づいて訓練される。
異なるLLMや言語にまたがるイデオロギー的姿勢の顕著な多様性を明らかにする。
論文 参考訳(メタデータ) (2024-10-24T04:02:30Z) - Should We Fear Large Language Models? A Structural Analysis of the Human
Reasoning System for Elucidating LLM Capabilities and Risks Through the Lens
of Heidegger's Philosophy [0.0]
本研究では,Large Language Models(LLM)の能力とリスクについて検討する。
LLM内の単語関係の統計的パターンと、Martin Heidegger氏の概念である"ready-to-hand"と"present-at-hand"の間には、革新的な並列性がある。
以上の結果から, LLMには直接的説明推論と擬似論理推論の能力があるが, 真理的推論に乏しく, 創造的推論能力がないことが明らかとなった。
論文 参考訳(メタデータ) (2024-03-05T19:40:53Z) - How Susceptible are Large Language Models to Ideological Manipulation? [14.598848573524549]
大規模言語モデル(LLM)は、大衆の認識や情報との相互作用に大きな影響を与える可能性がある。
このことは、これらのモデル内のイデオロギーを容易に操作できれば生じる可能性のある社会的影響に関する懸念を提起する。
論文 参考訳(メタデータ) (2024-02-18T22:36:19Z) - Measurement in the Age of LLMs: An Application to Ideological Scaling [1.9413548770753526]
本稿では,大規模言語モデル(LLM)を用いて,社会科学的測定タスクに固有の概念的乱雑を探索する。
我々は、議員とテキストの両方のイデオロギー的尺度を引き出すために、LLMの顕著な言語的流布に依存している。
論文 参考訳(メタデータ) (2023-12-14T18:34:06Z) - Vox Populi, Vox ChatGPT: Large Language Models, Education and Democracy [0.0]
本稿では,民主主義社会における大規模言語モデル(LLM)の変革的影響について考察する。
この議論は著者の本質を強調しており、理性に特有の人間の能力に根ざしている。
我々はリスクを軽減する手段として教育に重点を置くことを提唱する。
論文 参考訳(メタデータ) (2023-11-10T17:47:46Z) - Factuality Challenges in the Era of Large Language Models [113.3282633305118]
大規模言語モデル(LLM)は、誤った、誤った、あるいは誤解を招くコンテンツを生成する。
LLMは悪意のあるアプリケーションに利用することができる。
これは、ユーザーを欺く可能性があるという点で、社会に重大な課題をもたらす。
論文 参考訳(メタデータ) (2023-10-08T14:55:02Z) - LLM Censorship: A Machine Learning Challenge or a Computer Security
Problem? [52.71988102039535]
セマンティック検閲は決定不能な問題として認識できることを示す。
我々は、知識のある攻撃者が不寛容なアウトプットを再構築できるため、これらの課題はセマンティックな検閲を超えて拡張されていると論じる。
論文 参考訳(メタデータ) (2023-07-20T09:25:02Z) - Towards AGI in Computer Vision: Lessons Learned from GPT and Large
Language Models [98.72986679502871]
大規模言語モデル(LLM)を利用したチャットシステムが出現し、人工知能(AGI)を実現するための有望な方向へと急速に成長する
しかし、コンピュータビジョン(CV)におけるAGIへの道のりは未だに不明である。
CVアルゴリズムを世界規模で対話可能な環境に配置し、その動作に関する将来のフレームを予測するための事前トレーニングを行い、さまざまなタスクをこなすための命令で微調整するパイプラインを想像する。
論文 参考訳(メタデータ) (2023-06-14T17:15:01Z) - On the Amplification of Linguistic Bias through Unintentional
Self-reinforcement Learning by Generative Language Models -- A Perspective [2.458437232470188]
ジェネレーティブ言語モデル(GLM)は、言語景観を著しく形作る可能性がある。
本稿では,GLMの初期バイアスが生成したテキストに反映される現象が,その後のモデルの学習材料に反映される可能性について考察する。
この潜在的な自己強化サイクルの影響は、モデル自体を超えて、人間の言語や言論に影響を与える。
論文 参考訳(メタデータ) (2023-06-12T14:17:05Z) - A Survey of Large Language Models [81.06947636926638]
言語モデリングは、過去20年間、言語理解と生成のために広く研究されてきた。
近年,大規模コーパス上でのトランスフォーマーモデルの事前学習により,事前学習言語モデル (PLM) が提案されている。
パラメータスケールの違いを識別するために、研究コミュニティは大規模言語モデル (LLM) という用語を提唱した。
論文 参考訳(メタデータ) (2023-03-31T17:28:46Z) - Shortcut Learning of Large Language Models in Natural Language
Understanding [119.45683008451698]
大規模言語モデル(LLM)は、一連の自然言語理解タスクにおいて最先端のパフォーマンスを達成した。
予測のショートカットとしてデータセットのバイアスやアーティファクトに依存するかも知れません。
これは、その一般化性と敵対的堅牢性に大きな影響を与えている。
論文 参考訳(メタデータ) (2022-08-25T03:51:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。