論文の概要: Opportunities and Risks of LLMs for Scalable Deliberation with Polis
- arxiv url: http://arxiv.org/abs/2306.11932v1
- Date: Tue, 20 Jun 2023 22:52:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-22 15:25:43.630885
- Title: Opportunities and Risks of LLMs for Scalable Deliberation with Polis
- Title(参考訳): polisを用いたスケーラブルな審議のためのllmの機会とリスク
- Authors: Christopher T. Small, Ivan Vendrov, Esin Durmus, Hadjar Homaei,
Elizabeth Barry, Julien Cornebise, Ted Suzman, Deep Ganguli, and Colin Megill
- Abstract要約: Polisは、マシンインテリジェンスを活用して、熟考プロセスをスケールアップするプラットフォームである。
本稿では,Large Language Models (LLMs) をポリスエンゲージメントの結果の促進,調整,要約といった課題に適用する機会とリスクについて考察する。
- 参考スコア(独自算出の注目度): 7.211025984598187
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Polis is a platform that leverages machine intelligence to scale up
deliberative processes. In this paper, we explore the opportunities and risks
associated with applying Large Language Models (LLMs) towards challenges with
facilitating, moderating and summarizing the results of Polis engagements. In
particular, we demonstrate with pilot experiments using Anthropic's Claude that
LLMs can indeed augment human intelligence to help more efficiently run Polis
conversations. In particular, we find that summarization capabilities enable
categorically new methods with immense promise to empower the public in
collective meaning-making exercises. And notably, LLM context limitations have
a significant impact on insight and quality of these results.
However, these opportunities come with risks. We discuss some of these risks,
as well as principles and techniques for characterizing and mitigating them,
and the implications for other deliberative or political systems that may
employ LLMs. Finally, we conclude with several open future research directions
for augmenting tools like Polis with LLMs.
- Abstract(参考訳): Polisは、機械学習を利用して検討プロセスをスケールアップするプラットフォームである。
本稿では,Large Language Models (LLM) の適用に伴う可能性とリスクについて,Polis の取り組みの結果を円滑化し,調整し,要約する上での課題について検討する。
特に、AnthropicのClaudeを用いたパイロット実験では、LLMは実際に人間の知性を増強し、Polisの会話をより効率的に実行できるようにする。
特に,要約能力は,集団的意味形成演習において一般大衆に力を与えるという大きな約束を持つ,分類学的に新しい手法を可能にする。
LLMのコンテキスト制限は、これらの結果の洞察と品質に大きな影響を与えます。
しかし、これらの機会にはリスクが伴う。
これらのリスクのいくつか、およびそれらの特徴付けと緩和のための原則と技術、およびllmを採用する可能性のある他の審議的または政治的システムに対する意味について論じる。
最後に, Polis などのツールを LLM で拡張するためのオープンな研究の方向性について述べる。
関連論文リスト
- Navigating the Risks: A Survey of Security, Privacy, and Ethics Threats in LLM-Based Agents [67.07177243654485]
この調査は、大規模言語モデルに基づくエージェントが直面するさまざまな脅威を収集、分析する。
LLMをベースとしたエージェントの6つの重要な特徴を概説する。
4つの代表エージェントをケーススタディとして選択し,実践的に直面する可能性のあるリスクを分析した。
論文 参考訳(メタデータ) (2024-11-14T15:40:04Z) - Persuasion with Large Language Models: a Survey [49.86930318312291]
大規模言語モデル (LLM) は説得力のあるコミュニケーションに新たな破壊的可能性を生み出している。
政治、マーケティング、公衆衛生、電子商取引、慈善事業などの分野では、LLMシステムズは既に人間レベルや超人的説得力を達成している。
LLMをベースとした説得の現在と将来の可能性は、倫理的・社会的リスクを著しく引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-11T10:05:52Z) - Can LLMs be Fooled? Investigating Vulnerabilities in LLMs [4.927763944523323]
LLM(Large Language Models)の出現は、自然言語処理(NLP)内の様々な領域で大きな人気を集め、膨大なパワーを誇っている。
本稿では,各脆弱性部の知見を合成し,新たな研究・開発の方向性を提案する。
現在の脆弱性の焦点を理解することで、将来のリスクを予測し軽減できます。
論文 参考訳(メタデータ) (2024-07-30T04:08:00Z) - Flooding Spread of Manipulated Knowledge in LLM-Based Multi-Agent Communities [28.244283407749265]
マルチエージェントシステムにおける大規模言語モデル(LLM)のセキュリティへの影響について検討する。
本稿では,説得力注入と操作的知識注入を含む2段階攻撃手法を提案する。
本手法は, LLMをベースとしたエージェントを誘導し, 有害な知識の拡散に有効であることを示す。
論文 参考訳(メタデータ) (2024-07-10T16:08:46Z) - Large Language Models as Instruments of Power: New Regimes of Autonomous Manipulation and Control [0.0]
大規模言語モデル(LLM)は様々な修辞スタイルを再現し、幅広い感情を表現したテキストを生成する。
我々は,LSMの迅速かつ大半非規制導入によって可能となった,過小評価された社会的危害について考察する。
論文 参考訳(メタデータ) (2024-05-06T19:52:57Z) - Exploring the Adversarial Capabilities of Large Language Models [25.7847594292453]
大きな言語モデル(LLM)は、良心的なサンプルから敵の例を作れば、既存の安全なレールを騙すことができる。
我々の実験は、ヘイトスピーチ検出に焦点をあて、LLMが敵の摂動を見つけることに成功し、ヘイトスピーチ検出システムを効果的に損なうことを示した。
論文 参考訳(メタデータ) (2024-02-14T12:28:38Z) - Rethinking Interpretability in the Era of Large Language Models [76.1947554386879]
大規模言語モデル(LLM)は、幅広いタスクにまたがる顕著な機能を示している。
自然言語で説明できる能力により、LLMは人間に与えられるパターンのスケールと複雑さを拡大することができる。
これらの新しい機能は、幻覚的な説明や膨大な計算コストなど、新しい課題を提起する。
論文 参考訳(メタデータ) (2024-01-30T17:38:54Z) - Negotiating with LLMS: Prompt Hacks, Skill Gaps, and Reasoning Deficits [1.2818275315985972]
LLMとの価格交渉において,全年齢層で40人以上の個人を対象とするユーザスタディを実施している。
交渉された価格が、LLMと効果的に相互作用する際のリテラシーのギャップを指摘し、人類が幅広い範囲で達成したことを示す。
論文 参考訳(メタデータ) (2023-11-26T08:44:58Z) - Privacy in Large Language Models: Attacks, Defenses and Future Directions [84.73301039987128]
大規模言語モデル(LLM)を対象とした現在のプライバシ攻撃を分析し、敵の想定能力に応じて分類する。
本稿では、これらのプライバシー攻撃に対抗するために開発された防衛戦略について概説する。
論文 参考訳(メタデータ) (2023-10-16T13:23:54Z) - Investigating the Factual Knowledge Boundary of Large Language Models with Retrieval Augmentation [109.8527403904657]
大規模言語モデル(LLM)は,その知識に対する信頼度が低く,内部知識と外部知識の衝突をうまく扱えないことを示す。
検索の強化は、LLMの知識境界に対する認識を高める効果的なアプローチであることが証明されている。
本稿では,文書を動的に活用するための簡易な手法を提案する。
論文 参考訳(メタデータ) (2023-07-20T16:46:10Z) - On the Risk of Misinformation Pollution with Large Language Models [127.1107824751703]
本稿では,現代大規模言語モデル (LLM) の誤用の可能性について検討する。
本研究は, LLMが効果的な誤情報発生器として機能し, DOQAシステムの性能が著しく低下することを明らかにする。
論文 参考訳(メタデータ) (2023-05-23T04:10:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。