論文の概要: Public Discourse Sandbox: Facilitating Human and AI Digital Communication Research
- arxiv url: http://arxiv.org/abs/2505.21604v1
- Date: Tue, 27 May 2025 17:46:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-29 17:35:50.206808
- Title: Public Discourse Sandbox: Facilitating Human and AI Digital Communication Research
- Title(参考訳): Public Discourse Sandbox: 人とAIのデジタルコミュニケーション研究を支援する
- Authors: Kristina Radivojevic, Caleb Reinking, Shaun Whitfield, Paul Brenner,
- Abstract要約: 我々は,人間-AIのためのデジタル・ディスコース研究プラットフォームとして機能するPublic Discourse Sandbox (PDS)を紹介した。
PDSは、公共の商用ソーシャルメディアプラットフォームでは利用できない研究実験のための安全で安全なスペースを提供する。
- 参考スコア(独自算出の注目度): 0.26249027950824505
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Social media serves as a primary communication and information dissemination platform for major global events, entertainment, and niche or topically focused community discussions. Therefore, it represents a valuable resource for researchers who aim to understand numerous questions. However, obtaining data can be difficult, expensive, and often unreliable due to the presence of bots, fake accounts, and manipulated content. Additionally, there are ethical concerns if researchers decide to conduct an online experiment without explicitly notifying social media users about their intent. There is a need for more controlled and scalable mechanisms to evaluate the impacts of digital discussion interventions on audiences. We introduce the Public Discourse Sandbox (PDS), which serves as a digital discourse research platform for human-AI as well as AI-AI discourse research, testing, and training. PDS provides a safe and secure space for research experiments that are not viable on public, commercial social media platforms. Its main purpose is to enable the understanding of AI behaviors and the impacts of customized AI participants via techniques such as prompt engineering, retrieval-augmented generation (RAG), and fine-tuning. We provide a hosted live version of the sandbox to support researchers as well as the open-sourced code on GitHub for community collaboration and contribution.
- Abstract(参考訳): ソーシャルメディアは、主要なグローバルイベント、エンターテイメント、ニッチ、あるいはトピックに焦点を当てたコミュニティ議論のための主要なコミュニケーションおよび情報発信プラットフォームとして機能している。
そのため、多くの疑問を解き明かそうとする研究者にとって貴重な資料である。
しかし、ボット、偽アカウント、操作されたコンテンツが存在するため、データの入手は難しく、高価であり、しばしば信頼できない。
さらに、研究者がソーシャルメディアユーザーにその意図を明示的に知らせることなくオンライン実験を行うことを決定した場合、倫理的な懸念がある。
デジタルディスカッションの介入が聴衆に与える影響を評価するために、より制御されスケーラブルなメカニズムが必要である。
我々は、人間とAIのためのデジタル・ディスコース研究プラットフォームとして機能し、AIとAIのディコース研究、テスト、トレーニングの場として機能するPublic Discourse Sandbox(PDS)を紹介する。
PDSは、公共の商用ソーシャルメディアプラットフォームでは利用できない研究実験のための安全で安全なスペースを提供する。
その主な目的は、素早いエンジニアリング、検索強化生成(RAG)、微調整といった技術を通じて、AIの振る舞いとカスタマイズされたAI参加者の影響を理解することである。
私たちは、研究者とコミュニティのコラボレーションとコントリビューションのためにGitHub上のオープンソースコードをサポートするために、サンドボックスのホストされたライブバージョンを提供しています。
関連論文リスト
- A Survey of Social Cybersecurity: Techniques for Attack Detection, Evaluations, Challenges, and Future Prospects [2.116136707199746]
科学的情報ソースの信頼性は、しばしば誤報の拡散によって損なわれる。
この操作は、敵対的なビジネスアジェンダに役立ち、市民社会を妥協させる。
社会サイバーセキュリティという新たな科学分野が誕生した。
論文 参考訳(メタデータ) (2025-04-06T00:53:09Z) - Analyzing User Perceptions of Large Language Models (LLMs) on Reddit: Sentiment and Topic Modeling of ChatGPT and DeepSeek Discussions [0.0]
本研究の目的は、感情モデルとトピックモデリングを用いて、ChatGPTとDeepSeekに関するRedditの議論を分析することである。
レポートは、ユーザーがこのテクノロジーを信じているかどうか、そして彼らが未来と見なしているものについて言及している。
論文 参考訳(メタデータ) (2025-02-22T17:00:42Z) - Embedding Privacy in Computational Social Science and Artificial Intelligence Research [2.048226951354646]
プライバシーの保護は研究の重要な要素として浮上している。
高度な計算モデルの利用の増加は、プライバシーの懸念を悪化させる。
この記事では、プライバシの役割と、CSS、AI、データサイエンス、および関連するドメインで働く研究者が直面する問題について議論することによって、この分野に貢献する。
論文 参考訳(メタデータ) (2024-04-17T16:07:53Z) - Advancing Social Intelligence in AI Agents: Technical Challenges and Open Questions [67.60397632819202]
ソーシャルインテリジェントAIエージェント(Social-AI)の構築は、多分野、マルチモーダルな研究目標である。
我々は、社会AIを前進させるために、基礎となる技術的課題と、コンピューティングコミュニティ全体にわたる研究者のためのオープンな質問を特定します。
論文 参考訳(メタデータ) (2024-04-17T02:57:42Z) - Coordinated Science Laboratory 70th Anniversary Symposium: The Future of
Computing [80.72844751804166]
2021年、コーディネート・サイエンス研究所(CSL)は70周年を記念して、Future of Computing Symposiumを開催した。
シンポジウムで提案された主要な技術的ポイント、洞察、方向性を要約する。
参加者は、新しいコンピューティングパラダイム、技術、アルゴリズム、行動、そして将来予想される研究課題に関するトピックについて議論した。
論文 参考訳(メタデータ) (2022-10-04T17:32:27Z) - Neural Approaches to Conversational Information Retrieval [94.77863916314979]
会話情報検索(CIR)システムは、会話インタフェースを備えた情報検索(IR)システムである。
近年のディープラーニングの進歩により、自然言語処理(NLP)と会話型AIが大幅に改善されている。
この本は、ここ数年で開発された神経アプローチに焦点を当てた、CIRの最近の進歩を調査します。
論文 参考訳(メタデータ) (2022-01-13T19:04:59Z) - Empowering Local Communities Using Artificial Intelligence [70.17085406202368]
人中心の観点から、AIが社会に与える影響を探求する上で重要なトピックとなっている。
市民科学におけるこれまでの研究は、AIを使って研究に大衆を巻き込む方法を特定してきた。
本稿では,コミュニティ市民科学にAIを適用する上での課題について論じる。
論文 参考訳(メタデータ) (2021-10-05T12:51:11Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - The Offense-Defense Balance of Scientific Knowledge: Does Publishing AI
Research Reduce Misuse? [0.0]
人工知能(AI)研究の誤用に関する懸念が高まっている。
科学研究の出版は技術の誤用を助長するが、この研究は誤用に対する保護にも貢献する。
本稿ではこれらの2つの効果のバランスについて述べる。
論文 参考訳(メタデータ) (2019-12-27T10:20:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。