論文の概要: ChatGPT as the Marketplace of Ideas: Should Truth-Seeking Be the Goal of AI Content Governance?
- arxiv url: http://arxiv.org/abs/2405.18636v1
- Date: Tue, 28 May 2024 22:38:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-30 21:33:21.012356
- Title: ChatGPT as the Marketplace of Ideas: Should Truth-Seeking Be the Goal of AI Content Governance?
- Title(参考訳): 思想のマーケットプレースとしてのChatGPT:真理を探求することはAIコンテンツガバナンスのゴールか?
- Authors: Jiawei Zhang,
- Abstract要約: ChatGPTとアイデア理論の市場は、少なくとも4つの共通の特徴(アリーナ、手段、目的、欠陥)を示している。
この研究は、いわゆるAIコンテンツリスクはAI企業が生み出すものではなく、情報エコシステム全体に固有のものだと主張している。
- 参考スコア(独自算出の注目度): 8.168523242105763
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As one of the most enduring metaphors within legal discourse, the marketplace of ideas has wielded considerable influence over the jurisprudential landscape for decades. A century after the inception of this theory, ChatGPT emerged as a revolutionary technological advancement in the twenty-first century. This research finds that ChatGPT effectively manifests the marketplace metaphor. It not only instantiates the promises envisaged by generations of legal scholars but also lays bare the perils discerned through sustained academic critique. Specifically, the workings of ChatGPT and the marketplace of ideas theory exhibit at least four common features: arena, means, objectives, and flaws. These shared attributes are sufficient to render ChatGPT historically the most qualified engine for actualizing the marketplace of ideas theory. The comparison of the marketplace theory and ChatGPT merely marks a starting point. A more meaningful undertaking entails reevaluating and reframing both internal and external AI policies by referring to the accumulated experience, insights, and suggestions researchers have raised to fix the marketplace theory. Here, a pivotal issue is: should truth-seeking be set as the goal of AI content governance? Given the unattainability of the absolute truth-seeking goal, I argue against adopting zero-risk policies. Instead, a more judicious approach would be to embrace a knowledge-based alternative wherein large language models (LLMs) are trained to generate competing and divergent viewpoints based on sufficient justifications. This research also argues that so-called AI content risks are not created by AI companies but are inherent in the entire information ecosystem. Thus, the burden of managing these risks should be distributed among different social actors, rather than being solely shouldered by chatbot companies.
- Abstract(参考訳): 法的な議論の中で最も永続的なメタファーの1つとして、アイデアの市場は、何十年にもわたって、法学的な風景にかなりの影響力を及ぼしてきた。
この理論の発端から1世紀後、ChatGPTは21世紀に革命的な技術進歩として登場した。
本研究は,ChatGPTがマーケットプレースメタファーを効果的に表していることを示す。
代々の法学者によって望まれる約束をインスタンス化するだけでなく、持続的な学術的批判を通じて認識される危険を埋める。
特に、ChatGPTの業績とアイデア理論の市場は、少なくとも4つの共通の特徴(アリーナ、手段、目的、欠陥)を示している。
これらの共有属性は、歴史的にアイデア理論のマーケットプレースを実現するための最も適格なエンジンをChatGPTに与えるのに十分である。
マーケットプレース理論とChatGPTの比較は単なる出発点である。
より意味のある取り組みは、市場理論を修正するために研究者が提起した経験、洞察、提案の蓄積を参照することによって、内部と外部のAIポリシを再評価し再検討することである。
AIコンテンツガバナンスの目標として、真理を探すべきなのか?
絶対的真理探索の目標が達成不可能であることを考えると、ゼロリスク政策の採用に反対する。
代わりに、より司法的なアプローチは、十分な正当化に基づいて競合する異なる視点を生成するために、大きな言語モデル(LLM)を訓練する知識ベースの代替案を採用することである。
この研究は、いわゆるAIコンテンツリスクはAI企業が生み出すものではなく、情報エコシステム全体に固有のものだとも主張している。
したがって、これらのリスク管理の負担は、チャットボット会社にのみ負担されるのではなく、異なるソーシャルアクターに分散されるべきである。
関連論文リスト
- Hype, Sustainability, and the Price of the Bigger-is-Better Paradigm in AI [67.58673784790375]
AIパラダイムは、科学的に脆弱なだけでなく、望ましくない結果をもたらすものだ、と私たちは主張する。
第一に、計算要求がモデルの性能よりも早く増加し、不合理な経済要求と不均等な環境フットプリントにつながるため、持続可能ではない。
第二に、健康、教育、気候などの重要な応用は別として、他人を犠牲にして特定の問題に焦点をあてることである。
論文 参考訳(メタデータ) (2024-09-21T14:43:54Z) - It is Time to Develop an Auditing Framework to Promote Value Aware Chatbots [3.539967259383779]
我々は、この技術の進歩のスピードは、価値に基づく監査フレームワークを動員し、開発する必要があると論じる。
GPT 3.5 と GPT 4 からの応答は,既存の法則から導出される値と一致せず,一致しない。
この論文は、技術改善のための価値ベースの戦略を推奨して締めくくります。
論文 参考訳(メタデータ) (2024-09-03T02:15:34Z) - How Johnny Can Persuade LLMs to Jailbreak Them: Rethinking Persuasion to
Challenge AI Safety by Humanizing LLMs [66.05593434288625]
本稿では, 大規模言語モデル (LLM) を人間のようなコミュニケーション手段として, ジェイルブレイクの新たな視点を紹介する。
本研究では,数十年にわたる社会科学研究から派生した説得的分類法を適用し,説得的敵対的プロンプト(PAP)をジェイルブレイク LLM に適用する。
PAPは、Llama 2-7b Chat、GPT-3.5、GPT-4の攻撃成功率を10ドルで一貫して92%以上達成している。
防衛面では,PAPに対する様々なメカニズムを探索し,既存の防衛に重大なギャップがあることを見出した。
論文 参考訳(メタデータ) (2024-01-12T16:13:24Z) - Vox Populi, Vox ChatGPT: Large Language Models, Education and Democracy [0.0]
本稿では,民主主義社会における大規模言語モデル(LLM)の変革的影響について考察する。
この議論は著者の本質を強調しており、理性に特有の人間の能力に根ざしている。
我々はリスクを軽減する手段として教育に重点を置くことを提唱する。
論文 参考訳(メタデータ) (2023-11-10T17:47:46Z) - Last Week with ChatGPT: A Weibo Study on Social Perspective Regarding ChatGPT for Education and Beyond [12.935870689618202]
この研究は、現在最も強力で人気のあるAIツールであるChatGPTを用いて、中国国民が教育と一般的な目的のために大規模言語モデル(LLM)の可能性をどのように認識するかを分析する代表的な例である。
この研究は、AI技術がより高度でインテリジェントになるにつれて、世論の変化を調査する最初の試みでもある。
論文 参考訳(メタデータ) (2023-06-07T10:45:02Z) - A Complete Survey on Generative AI (AIGC): Is ChatGPT from GPT-4 to
GPT-5 All You Need? [112.12974778019304]
生成AI(AIGC、つまりAI生成コンテンツ)は、テキスト、画像、その他を分析、作成する能力により、あらゆる場所で話題を呼んだ。
純粋な分析から創造へと移行するAIの時代において、ChatGPTは最新の言語モデルであるGPT-4とともに、多くのAIGCタスクからなるツールである。
本研究は,テキスト,画像,ビデオ,3Dコンテンツなど,出力タイプに基づいたAIGCタスクの技術的開発に焦点を当てている。
論文 参考訳(メタデータ) (2023-03-21T10:09:47Z) - Factoring the Matrix of Domination: A Critical Review and Reimagination
of Intersectionality in AI Fairness [55.037030060643126]
間欠性は、社会的不平等の持続性を調べるための重要な枠組みである。
我々は、公平性を効果的に運用するために、交差性を分析的枠組みとして採用することが重要であると論じる。
論文 参考訳(メタデータ) (2023-03-16T21:02:09Z) - Truth Machines: Synthesizing Veracity in AI Language Models [0.0]
我々は、AIシステムにおける真理の闘争と、現在までの一般的な対応について議論する。
その後、大規模な言語モデルであるInstructGPTにおける真理の生成について調査する。
これらの論理と矛盾はChatGPTで発生し、真理を非自明な問題として繰り返し主張する。
論文 参考訳(メタデータ) (2023-01-28T02:47:50Z) - When to Make Exceptions: Exploring Language Models as Accounts of Human
Moral Judgment [96.77970239683475]
AIシステムは人間の道徳的判断や決定を理解し、解釈し、予測しなければなりません。
AIの安全性に対する中心的な課題は、人間の道徳心の柔軟性を捉えることだ。
ルール破りの質問応答からなる新しい課題セットを提案する。
論文 参考訳(メタデータ) (2022-10-04T09:04:27Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - Truthful AI: Developing and governing AI that does not lie [0.26385121748044166]
嘘をつくために口頭で嘘をつくのは有害です。
嘘は伝統的に人間関係だったが、AIシステムはますます普及しつつある。
このことは、AIの「リー」による害をどう抑えるべきかという疑問を提起する
論文 参考訳(メタデータ) (2021-10-13T12:18:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。