論文の概要: AI and the Future of Digital Public Squares
- arxiv url: http://arxiv.org/abs/2412.09988v1
- Date: Fri, 13 Dec 2024 09:15:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-16 15:04:19.289567
- Title: AI and the Future of Digital Public Squares
- Title(参考訳): AIとデジタル公共広場の未来
- Authors: Beth Goldberg, Diana Acosta-Navas, Michiel Bakker, Ian Beacock, Matt Botvinick, Prateek Buch, Renée DiResta, Nandika Donthi, Nathanael Fast, Ravi Iyer, Zaria Jalan, Andrew Konya, Grace Kwak Danciu, Hélène Landemore, Alice Marwick, Carl Miller, Aviv Ovadya, Emily Saltz, Lisa Schirch, Dalit Shalom, Divya Siddarth, Felix Sieker, Christopher Small, Jonathan Stray, Audrey Tang, Michael Henry Tessler, Amy Zhang,
- Abstract要約: 大規模言語モデル(LLM)の4つの応用を,デジタル公共広場の改良に適用する。
LLMはどちらも、大規模に会話のパラダイムをシフトする有望な機会を与え、デジタル公共広場に異なるリスクをもたらすと我々は主張する。
我々は、デジタル公共広場を強化するAIの将来の研究と投資に関する議題を策定する。
- 参考スコア(独自算出の注目度): 8.958436590869363
- License:
- Abstract: Two substantial technological advances have reshaped the public square in recent decades: first with the advent of the internet and second with the recent introduction of large language models (LLMs). LLMs offer opportunities for a paradigm shift towards more decentralized, participatory online spaces that can be used to facilitate deliberative dialogues at scale, but also create risks of exacerbating societal schisms. Here, we explore four applications of LLMs to improve digital public squares: collective dialogue systems, bridging systems, community moderation, and proof-of-humanity systems. Building on the input from over 70 civil society experts and technologists, we argue that LLMs both afford promising opportunities to shift the paradigm for conversations at scale and pose distinct risks for digital public squares. We lay out an agenda for future research and investments in AI that will strengthen digital public squares and safeguard against potential misuses of AI.
- Abstract(参考訳): インターネットの出現と、最近の大規模言語モデル(LLM)の導入によって、ここ数十年で2つの重要な技術進歩が公共広場を形作り直した。
LLMは、より分散的で参加的なオンライン空間へのパラダイムシフトの機会を提供する。
本稿では,LLMの4つの応用によるデジタル公共広場の改良について検討する:集合対話システム,ブリッジシステム,コミュニティのモデレーション,人間性証明システム。
70以上の市民社会の専門家や技術者の入力に基づいて、LLMはどちらも、大規模に会話のパラダイムをシフトし、デジタル公共広場に明確なリスクをもたらす有望な機会に恵まれている、と我々は主張する。
我々は、デジタル公共広場を強化し、AIの潜在的な誤用に対する安全を守る、将来の研究とAIへの投資のためのアジェンダを策定する。
関連論文リスト
- Digital Twin for Smart Societies: A Catalyst for Inclusive and Accessible Healthcare [0.2153402800940171]
デジタルツインは、都市動態のリアルタイムモニタリング、シミュレーション、最適化を可能にする。
本稿では,スマートシティの発展にともなう包括的医療を促進するデジタル双生児の可能性について検討する。
論文 参考訳(メタデータ) (2025-01-13T18:57:15Z) - Persuasion with Large Language Models: a Survey [49.86930318312291]
大規模言語モデル (LLM) は説得力のあるコミュニケーションに新たな破壊的可能性を生み出している。
政治、マーケティング、公衆衛生、電子商取引、慈善事業などの分野では、LLMシステムズは既に人間レベルや超人的説得力を達成している。
LLMをベースとした説得の現在と将来の可能性は、倫理的・社会的リスクを著しく引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-11T10:05:52Z) - Near to Mid-term Risks and Opportunities of Open-Source Generative AI [94.06233419171016]
Generative AIの応用は、科学や医学、教育など、さまざまな分野に革命をもたらすことが期待されている。
こうした地震の影響の可能性は、潜在的なリスクに関する活発な議論を引き起こし、より厳格な規制を要求した。
この規制は、オープンソースのジェネレーティブAIの誕生する分野を危険にさらしている可能性が高い。
論文 参考訳(メタデータ) (2024-04-25T21:14:24Z) - Frontier AI Ethics: Anticipating and Evaluating the Societal Impacts of Language Model Agents [0.0]
一部の者は、すでに広くデプロイされているAIシステムのよく知られた病理を複製したとして、ジェネレーティブAIシステムを批判している。
私はこれらの特定のシステムを区別する点に注意を払っています。
私は「言語モデルエージェント」の略奪的展望がもたらす潜在的社会的影響と規範的疑問について考察する
論文 参考訳(メタデータ) (2024-04-10T05:34:07Z) - Now, Later, and Lasting: Ten Priorities for AI Research, Policy, and Practice [63.20307830884542]
今後数十年は、産業革命に匹敵する人類の転換点になるかもしれない。
10年前に立ち上げられたこのプロジェクトは、複数の専門分野の専門家による永続的な研究にコミットしている。
AI技術の短期的および長期的影響の両方に対処する、アクションのための10のレコメンデーションを提供します。
論文 参考訳(メタデータ) (2024-04-06T22:18:31Z) - MacGyver: Are Large Language Models Creative Problem Solvers? [87.70522322728581]
本稿では, 現代LLMの創造的問題解決能力について, 制約付き環境下で検討する。
我々は1,600以上の実世界の問題からなる自動生成データセットであるMACGYVERを作成する。
我々はLLMと人間の両方にコレクションを提示し、それらの問題解決能力を比較して比較する。
論文 参考訳(メタデータ) (2023-11-16T08:52:27Z) - Factuality Challenges in the Era of Large Language Models [113.3282633305118]
大規模言語モデル(LLM)は、誤った、誤った、あるいは誤解を招くコンテンツを生成する。
LLMは悪意のあるアプリケーションに利用することができる。
これは、ユーザーを欺く可能性があるという点で、社会に重大な課題をもたらす。
論文 参考訳(メタデータ) (2023-10-08T14:55:02Z) - Voluminous yet Vacuous? Semantic Capital in an Age of Large Language
Models [0.0]
大きな言語モデル(LLM)は、自然言語処理の領域において変換力として出現し、人間のようなテキストを生成する力を持つ。
本稿では、これらのモデルの進化、能力、限界について考察し、それらが引き起こす倫理的懸念を強調した。
論文 参考訳(メタデータ) (2023-05-29T09:26:28Z) - Large Language Models Humanize Technology [6.127963013089406]
大規模言語モデル(LLM)は、ここ数ヶ月、数週間で急速に進歩している。
これは、これらのモデルを人的価値と整合させること、労働市場への影響、そして規制の必要性に対する懸念を引き起こした。
LLMは、従来の技術よりも、より効果的にテクノロジーを人為化する創発的な能力を示すと我々は主張する。
論文 参考訳(メタデータ) (2023-05-09T16:05:36Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Conversational AI Systems for Social Good: Opportunities and Challenges [36.62874025715014]
コミュニティがよりよいConvAIシステムへ向けた進歩を簡単にレビューします。
我々は、これらの目標を達成するのに役立てるために、ConvAIシステムの今後の課題について論じる。
論文 参考訳(メタデータ) (2021-05-13T17:56:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。