論文の概要: Vox Populi, Vox ChatGPT: Large Language Models, Education and Democracy
- arxiv url: http://arxiv.org/abs/2311.06207v1
- Date: Fri, 10 Nov 2023 17:47:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-13 14:29:32.710356
- Title: Vox Populi, Vox ChatGPT: Large Language Models, Education and Democracy
- Title(参考訳): Vox Populi, Vox ChatGPT: 大規模言語モデル,教育,民主主義
- Authors: Niina Zuber and Jan Gogoll
- Abstract要約: 本稿では,民主主義社会における大規模言語モデル(LLM)の変革的影響について考察する。
この議論は著者の本質を強調しており、理性に特有の人間の能力に根ざしている。
我々はリスクを軽減する手段として教育に重点を置くことを提唱する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In the era of generative AI and specifically large language models (LLMs),
exemplified by ChatGPT, the intersection of artificial intelligence and human
reasoning has become a focal point of global attention. Unlike conventional
search engines, LLMs go beyond mere information retrieval, entering into the
realm of discourse culture. Its outputs mimic well-considered, independent
opinions or statements of facts, presenting a pretense of wisdom. This paper
explores the potential transformative impact of LLMs on democratic societies.
It delves into the concerns regarding the difficulty in distinguishing
ChatGPT-generated texts from human output. The discussion emphasizes the
essence of authorship, rooted in the unique human capacity for reason - a
quality indispensable for democratic discourse and successful collaboration
within free societies. Highlighting the potential threats to democracy, this
paper presents three arguments: the Substitution argument, the Authenticity
argument, and the Facts argument. These arguments highlight the potential risks
that are associated with an overreliance on LLMs. The central thesis posits
that widespread deployment of LLMs may adversely affect the fabric of a
democracy if not comprehended and addressed proactively and properly. In
proposing a solution, we advocate for an emphasis on education as a means to
mitigate risks. We suggest cultivating thinking skills in children, fostering
coherent thought formulation, and distinguishing between machine-generated
output and genuine, i.e. human, reasoning. The focus should be on responsible
development and usage of LLMs, with the goal of augmenting human capacities in
thinking, deliberating and decision-making rather than substituting them.
- Abstract(参考訳): ChatGPTによって実証された、生成AIと特に大きな言語モデル(LLM)の時代において、人工知能と人間の推論の交わりは、世界的な注目の的になっている。
従来の検索エンジンとは異なり、LLMは単なる情報検索を超えて、談話文化の領域に入る。
そのアウトプットはよく考えられた独立した意見や事実のステートメントを模倣し、知恵のセンスを示している。
本稿では, LLMが民主社会に与える影響について考察する。
チャットgptが生成するテキストと人間の出力との区別が難しいという懸念が浮かび上がっている。
この議論は、自由社会における民主的談話と協力の成功に欠かせない品質である、理性のためのユニークな人間の能力に根ざした著者の本質を強調している。
本稿では,民主主義に対する潜在的な脅威を浮き彫りにして,代替論,正当性論,ファクト論の3つの論点を示す。
これらの議論は、LSMの過度な信頼に関連する潜在的なリスクを浮き彫りにする。
中央論文は、llmの広範な展開が民主主義の生地に悪影響を及ぼす可能性があると示唆している。
解決策の提案では、リスクを軽減する手段として教育に重点を置くことを提唱する。
我々は,子どもの思考スキルの育成,コヒーレント思考の定式化の育成,機械出力と真の推論,すなわち人間を区別することを提案する。
LLMの開発と利用に責任を負うべきであり、その代替ではなく、思考、熟考、意思決定において人間の能力を高めることを目的としている。
関連論文リスト
- Persuasion with Large Language Models: a Survey [49.86930318312291]
大規模言語モデル (LLM) は説得力のあるコミュニケーションに新たな破壊的可能性を生み出している。
政治、マーケティング、公衆衛生、電子商取引、慈善事業などの分野では、LLMシステムズは既に人間レベルや超人的説得力を達成している。
LLMをベースとした説得の現在と将来の可能性は、倫理的・社会的リスクを著しく引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-11T10:05:52Z) - Large Language Models Reflect the Ideology of their Creators [73.25935570218375]
大規模言語モデル(LLM)は、自然言語を生成するために大量のデータに基づいて訓練される。
異なるLLMや言語にまたがるイデオロギー的姿勢の顕著な多様性を明らかにする。
論文 参考訳(メタデータ) (2024-10-24T04:02:30Z) - Can LLMs advance democratic values? [0.0]
LLMは、形式的な民主的意思決定プロセスから明確に守るべきである、と我々は主張する。
非公式な公共の場を強化するのに役立てることができる。
論文 参考訳(メタデータ) (2024-10-10T23:24:06Z) - LLM Theory of Mind and Alignment: Opportunities and Risks [0.0]
大きな言語モデル (LLM) が心の理論 (ToM) を持つかどうかに注目が集まっている。
本稿では,LLM ToMが人間:LLMの相互作用に現れる重要な領域を個人およびグループレベルで同定する。
それは、潜在的な意味を幅広い範囲で明らかにし、将来の研究の最も急進的な領域を示唆している。
論文 参考訳(メタデータ) (2024-05-13T19:52:16Z) - Large Language Models are as persuasive as humans, but how? About the cognitive effort and moral-emotional language of LLM arguments [0.0]
大型言語モデル(LLM)はすでに人間と同じくらい説得力がある。
本稿では, LLMの説得戦略について, 人為的議論と比較し検討する。
論文 参考訳(メタデータ) (2024-04-14T19:01:20Z) - Should We Fear Large Language Models? A Structural Analysis of the Human
Reasoning System for Elucidating LLM Capabilities and Risks Through the Lens
of Heidegger's Philosophy [0.0]
本研究では,Large Language Models(LLM)の能力とリスクについて検討する。
LLM内の単語関係の統計的パターンと、Martin Heidegger氏の概念である"ready-to-hand"と"present-at-hand"の間には、革新的な並列性がある。
以上の結果から, LLMには直接的説明推論と擬似論理推論の能力があるが, 真理的推論に乏しく, 創造的推論能力がないことが明らかとなった。
論文 参考訳(メタデータ) (2024-03-05T19:40:53Z) - CLOMO: Counterfactual Logical Modification with Large Language Models [109.60793869938534]
本稿では,新しいタスク,CLOMO(Counterfactual Logical Modification)と高品質な人間アノテーションベンチマークを紹介する。
このタスクでは、LLMは所定の論理的関係を維持するために、与えられた議論的テキストを順応的に変更しなければなりません。
LLMの自然言語出力を直接評価する革新的な評価指標である自己評価スコア(SES)を提案する。
論文 参考訳(メタデータ) (2023-11-29T08:29:54Z) - Democratizing Reasoning Ability: Tailored Learning from Large Language
Model [97.4921006089966]
そこで我々は,そのような推論能力をより小さなLMに蒸留する,適切な学習手法を提案する。
対話型多ラウンド学習パラダイムを構築することにより,理科教員としてのLLMの可能性を活用する。
より小さなLMの推論可能性を活用するために,学生が自作ミスから学習する動機付けを目的とした自己回帰学習を提案する。
論文 参考訳(メタデータ) (2023-10-20T07:50:10Z) - Harnessing the Power of LLMs: Evaluating Human-AI Text Co-Creation
through the Lens of News Headline Generation [58.31430028519306]
本研究は, LLMを書き込みに最も有効に活用する方法と, これらのモデルとのインタラクションが, 書き込みプロセスにおけるオーナシップや信頼感にどのように影響するかを考察する。
LLMだけで十分なニュースの見出しを生成することができるが、平均すると、望ましくないモデルのアウトプットを修正するには人間による制御が必要である。
論文 参考訳(メタデータ) (2023-10-16T15:11:01Z) - Encouraging Divergent Thinking in Large Language Models through Multi-Agent Debate [85.3444184685235]
複数のエージェントが"tit for tat"の状態で議論を表現するマルチエージェント議論(MAD)フレームワークを提案し、審査員が議論プロセスを管理して最終解を得る。
我々のフレームワークは、深い熟考を必要とするタスクに役立ちそうなLSMにおける散発的思考を奨励する。
論文 参考訳(メタデータ) (2023-05-30T15:25:45Z) - Voluminous yet Vacuous? Semantic Capital in an Age of Large Language
Models [0.0]
大きな言語モデル(LLM)は、自然言語処理の領域において変換力として出現し、人間のようなテキストを生成する力を持つ。
本稿では、これらのモデルの進化、能力、限界について考察し、それらが引き起こす倫理的懸念を強調した。
論文 参考訳(メタデータ) (2023-05-29T09:26:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。