論文の概要: Vox Populi, Vox ChatGPT: Large Language Models, Education and Democracy
- arxiv url: http://arxiv.org/abs/2311.06207v1
- Date: Fri, 10 Nov 2023 17:47:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-13 14:29:32.710356
- Title: Vox Populi, Vox ChatGPT: Large Language Models, Education and Democracy
- Title(参考訳): Vox Populi, Vox ChatGPT: 大規模言語モデル,教育,民主主義
- Authors: Niina Zuber and Jan Gogoll
- Abstract要約: 本稿では,民主主義社会における大規模言語モデル(LLM)の変革的影響について考察する。
この議論は著者の本質を強調しており、理性に特有の人間の能力に根ざしている。
我々はリスクを軽減する手段として教育に重点を置くことを提唱する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In the era of generative AI and specifically large language models (LLMs),
exemplified by ChatGPT, the intersection of artificial intelligence and human
reasoning has become a focal point of global attention. Unlike conventional
search engines, LLMs go beyond mere information retrieval, entering into the
realm of discourse culture. Its outputs mimic well-considered, independent
opinions or statements of facts, presenting a pretense of wisdom. This paper
explores the potential transformative impact of LLMs on democratic societies.
It delves into the concerns regarding the difficulty in distinguishing
ChatGPT-generated texts from human output. The discussion emphasizes the
essence of authorship, rooted in the unique human capacity for reason - a
quality indispensable for democratic discourse and successful collaboration
within free societies. Highlighting the potential threats to democracy, this
paper presents three arguments: the Substitution argument, the Authenticity
argument, and the Facts argument. These arguments highlight the potential risks
that are associated with an overreliance on LLMs. The central thesis posits
that widespread deployment of LLMs may adversely affect the fabric of a
democracy if not comprehended and addressed proactively and properly. In
proposing a solution, we advocate for an emphasis on education as a means to
mitigate risks. We suggest cultivating thinking skills in children, fostering
coherent thought formulation, and distinguishing between machine-generated
output and genuine, i.e. human, reasoning. The focus should be on responsible
development and usage of LLMs, with the goal of augmenting human capacities in
thinking, deliberating and decision-making rather than substituting them.
- Abstract(参考訳): ChatGPTによって実証された、生成AIと特に大きな言語モデル(LLM)の時代において、人工知能と人間の推論の交わりは、世界的な注目の的になっている。
従来の検索エンジンとは異なり、LLMは単なる情報検索を超えて、談話文化の領域に入る。
そのアウトプットはよく考えられた独立した意見や事実のステートメントを模倣し、知恵のセンスを示している。
本稿では, LLMが民主社会に与える影響について考察する。
チャットgptが生成するテキストと人間の出力との区別が難しいという懸念が浮かび上がっている。
この議論は、自由社会における民主的談話と協力の成功に欠かせない品質である、理性のためのユニークな人間の能力に根ざした著者の本質を強調している。
本稿では,民主主義に対する潜在的な脅威を浮き彫りにして,代替論,正当性論,ファクト論の3つの論点を示す。
これらの議論は、LSMの過度な信頼に関連する潜在的なリスクを浮き彫りにする。
中央論文は、llmの広範な展開が民主主義の生地に悪影響を及ぼす可能性があると示唆している。
解決策の提案では、リスクを軽減する手段として教育に重点を置くことを提唱する。
我々は,子どもの思考スキルの育成,コヒーレント思考の定式化の育成,機械出力と真の推論,すなわち人間を区別することを提案する。
LLMの開発と利用に責任を負うべきであり、その代替ではなく、思考、熟考、意思決定において人間の能力を高めることを目的としている。
関連論文リスト
- Should We Fear Large Language Models? A Structural Analysis of the Human
Reasoning System for Elucidating LLM Capabilities and Risks Through the Lens
of Heidegger's Philosophy [0.0]
本研究では,Large Language Models(LLM)の能力とリスクについて検討する。
LLM内の単語関係の統計的パターンと、Martin Heidegger氏の概念である"ready-to-hand"と"present-at-hand"の間には、革新的な並列性がある。
以上の結果から, LLMには直接的説明推論と擬似論理推論の能力があるが, 真理的推論に乏しく, 創造的推論能力がないことが明らかとなった。
論文 参考訳(メタデータ) (2024-03-05T19:40:53Z) - ToMBench: Benchmarking Theory of Mind in Large Language Models [42.80231362967291]
ToMは、自分自身や他人に精神状態を知覚し、解釈する認知能力である。
既存のToM評価は、制約されたスコープ、主観的判断、意図しない汚染といった課題によって妨げられる。
ToMBenchには3つの重要な特徴がある: 社会的認知における8つのタスクと31の能力を含む体系的評価フレームワーク、自動的かつ偏りのない評価をサポートする複数選択質問フォーマット、データ漏洩を厳密に回避するためのビルト・トゥ・スクラッチバイリンガルインベントリ。
論文 参考訳(メタデータ) (2024-02-23T02:05:46Z) - CLOMO: Counterfactual Logical Modification with Large Language Models [113.72984199026094]
本稿では,新しいタスク,CLOMO(Counterfactual Logical Modification)と高品質な人間アノテーションベンチマークを紹介する。
生成モデルのカウンターファクトの能力を効果的に評価するために,革新的な評価指標であるLogicAware Counterfactual Scoreを提案する。
分析の結果,提案手法は人間の好みとよく一致していることがわかった。
論文 参考訳(メタデータ) (2023-11-29T08:29:54Z) - Navigating the Ocean of Biases: Political Bias Attribution in Language
Models via Causal Structures [58.059631072902356]
我々は、LLMの価値観を批判したり、検証したりせず、どのようにして「良い議論」を解釈し、偏見づけるかを見極めることを目的としている。
本研究では,活動依存ネットワーク(ADN)を用いてLCMの暗黙的基準を抽出する。
人-AIアライメントとバイアス緩和について,本研究の結果について考察した。
論文 参考訳(メタデータ) (2023-11-15T00:02:25Z) - Large Language Models: The Need for Nuance in Current Debates and a
Pragmatic Perspective on Understanding [1.3654846342364308]
LLM(Large Language Models)は、文法的に正しい、流動的なテキストを生成する能力において、非並列である。
本論文は,LLM能力の批判において再発する3点を批判的に評価する。
LLMにおける現実の理解と意図の問題に関する実践的な視点を概説する。
論文 参考訳(メタデータ) (2023-10-30T15:51:04Z) - Democratizing Reasoning Ability: Tailored Learning from Large Language
Model [97.4921006089966]
そこで我々は,そのような推論能力をより小さなLMに蒸留する,適切な学習手法を提案する。
対話型多ラウンド学習パラダイムを構築することにより,理科教員としてのLLMの可能性を活用する。
より小さなLMの推論可能性を活用するために,学生が自作ミスから学習する動機付けを目的とした自己回帰学習を提案する。
論文 参考訳(メタデータ) (2023-10-20T07:50:10Z) - Harnessing the Power of LLMs: Evaluating Human-AI Text Co-Creation
through the Lens of News Headline Generation [58.31430028519306]
本研究は, LLMを書き込みに最も有効に活用する方法と, これらのモデルとのインタラクションが, 書き込みプロセスにおけるオーナシップや信頼感にどのように影響するかを考察する。
LLMだけで十分なニュースの見出しを生成することができるが、平均すると、望ましくないモデルのアウトプットを修正するには人間による制御が必要である。
論文 参考訳(メタデータ) (2023-10-16T15:11:01Z) - Large Language Model Soft Ideologization via AI-Self-Consciousness [25.99169821531019]
大規模言語モデル(LLM)は、多岐にわたる自然言語タスクにおいて、人間レベルのパフォーマンスを実証している。
本研究は,AI自己意識を用いたGPTソフトイデオロギーの意義を考察する。
論文 参考訳(メタデータ) (2023-09-28T04:47:58Z) - Encouraging Divergent Thinking in Large Language Models through
Multi-Agent Debate [56.23037393834715]
複数のエージェントが"tit for tat"の状態で議論を表現するマルチエージェント議論(MAD)フレームワークを提案し、審査員が議論プロセスを管理して最終解を得る。
我々のフレームワークは、深い熟考を必要とするタスクに役立ちそうなLSMにおける散発的思考を奨励する。
論文 参考訳(メタデータ) (2023-05-30T15:25:45Z) - Voluminous yet Vacuous? Semantic Capital in an Age of Large Language
Models [0.0]
大きな言語モデル(LLM)は、自然言語処理の領域において変換力として出現し、人間のようなテキストを生成する力を持つ。
本稿では、これらのモデルの進化、能力、限界について考察し、それらが引き起こす倫理的懸念を強調した。
論文 参考訳(メタデータ) (2023-05-29T09:26:28Z) - Large Language Models are In-Context Semantic Reasoners rather than
Symbolic Reasoners [75.85554779782048]
大規模言語モデル(LLM)は、近年、自然言語と機械学習コミュニティを興奮させています。
多くの成功を収めたアプリケーションにもかかわらず、そのようなコンテキスト内機能の基盤となるメカニズムはまだ不明である。
本研究では,学習した言語トークンのテクストセマンティクスが推論過程において最も重い処理を行うと仮定する。
論文 参考訳(メタデータ) (2023-05-24T07:33:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。