論文の概要: Introducing AI to an Online Petition Platform Changed Outputs but not Outcomes
- arxiv url: http://arxiv.org/abs/2511.13949v1
- Date: Mon, 17 Nov 2025 22:09:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-19 16:23:52.824457
- Title: Introducing AI to an Online Petition Platform Changed Outputs but not Outcomes
- Title(参考訳): オンライン請願プラットフォームにAIを導入することで成果は変わるが、成果は得られない
- Authors: Isabel Corpus, Eric Gilbert, Allison Koenecke, Mor Naaman,
- Abstract要約: プラットフォーム内AIアクセスは請願の語彙的特徴を大きく変え、請願の均質性を高めたが、請願の結果は改善しなかった。
AI記述ツールはオンラインコンテンツを根本的に作り直すことができるが、望ましい結果を改善するための実用的ユーティリティは、予想されるよりも有益ではないかもしれない。
- 参考スコア(独自算出の注目度): 12.292711445237238
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid integration of AI writing tools into online platforms raises critical questions about their impact on content production and outcomes. We leverage a unique natural experiment on Change.org, a leading social advocacy platform, to causally investigate the effects of an in-platform ''write with AI'' tool. To understand the impact of the AI integration, we collected 1.5 million petitions and employed a difference-in-differences analysis. Our findings reveal that in-platform AI access significantly altered the lexical features of petitions and increased petition homogeneity, but did not improve petition outcomes. We confirmed the results in a separate analysis of repeat petition writers who wrote petitions before and after introduction of the AI tool. The results suggest that while AI writing tools can profoundly reshape online content, their practical utility for improving desired outcomes may be less beneficial than anticipated, and introduce unintended consequences like content homogenization.
- Abstract(参考訳): オンラインプラットフォームへのAI記述ツールの迅速な統合は、コンテンツ制作と結果への影響に関する重要な疑問を提起する。
当社は、ソーシャルアドボケーションプラットフォームであるChange.orgのユニークな自然実験を活用し、プラットフォーム内での'write with AI'ツールの効果を慎重に調査する。
AI統合の影響を理解するため、150万件の請願を集め、差分分析を採用した。
その結果、プラットフォーム内AIアクセスは請願の語彙的特徴を著しく変化させ、請願の均質性を向上させたが、請願の結果は改善しなかった。
我々は,AIツールの導入前後に請願書を作成した請願書作成者の別の分析で,その結果を確認した。
結果は、AI記述ツールはオンラインコンテンツを深く作り直すことができるが、望ましい結果を改善するための実用的ユーティリティは、予想よりも利益が低くなり、コンテンツ均質化のような意図しない結果がもたらされることを示唆している。
関連論文リスト
- AI in the Writing Process: How Purposeful AI Support Fosters Student Writing [0.3641292357963815]
ChatGPTのようなテクノロジーの多様さは、学生の執筆に対する影響を懸念している。
本稿では,異なるAI支援アプローチが著者のエージェンシー感覚と知識変換の深さにどのように影響するかを検討する。
論文 参考訳(メタデータ) (2025-06-25T16:34:09Z) - AI labeling reduces the perceived accuracy of online content but has limited broader effects [0.0]
提案する公開ポリシーに関するニュース記事の明示的なAIラベル付けは,その認識精度を低下させることを示す。
AIラベリングはポリシーへの関心を減少させるが、ポリシーへの支持に影響せず、オンラインの誤情報に対する一般的な懸念も引き起こさない。
論文 参考訳(メタデータ) (2025-06-19T10:32:52Z) - Artificial Intelligence in Deliberation: The AI Penalty and the Emergence of a New Deliberative Divide [0.0]
デジタル審議は民主的参加を拡大したが、課題は残る。
人工知能(AI)の最近の進歩は潜在的な解決策を提供するが、熟考におけるAIの役割に対する大衆の認識はいまだに過小評価されている。
AIが熟考、公的な信頼、受け入れ、参加意欲に統合される場合、影響される可能性がある。
論文 参考訳(メタデータ) (2025-03-10T16:33:15Z) - Almost AI, Almost Human: The Challenge of Detecting AI-Polished Writing [55.2480439325792]
本研究では、AI-Polished-Text Evaluationデータセットを用いて、12の最先端AIテキスト検出器を体系的に評価する。
我々の発見によると、検出器は、最小限に洗練されたテキストをAI生成としてフラグ付けし、AIの関与度を区別し、古いモデルや小さなモデルに対するバイアスを示す。
論文 参考訳(メタデータ) (2025-02-21T18:45:37Z) - Are Large Language Models Ready for Business Integration? A Study on Generative AI Adoption [0.6144680854063939]
本研究では,Google Geminiのような他の大規模言語モデル(LLM)のビジネスアプリケーションへの適用性について検討する。
ディズニーランドの異なる支店からの42,654件のレビューデータセットが採用された。
その結果、75%の成功率、25%のエラー、モデル自己参照の事例など、反応のスペクトルが示された。
論文 参考訳(メタデータ) (2025-01-28T21:01:22Z) - How Performance Pressure Influences AI-Assisted Decision Making [52.997197698288936]
我々は、プレッシャーと説明可能なAI(XAI)技術がAIアドバイステイク行動とどのように相互作用するかを示す。
我々の結果は、圧力とXAIの異なる組み合わせで複雑な相互作用効果を示し、AIアドバイスの行動を改善するか、悪化させるかのどちらかを示す。
論文 参考訳(メタデータ) (2024-10-21T22:39:52Z) - The Influence of Generative AI on Content Platforms: Supply, Demand, and Welfare Impacts in Two-Sided Markets [3.4039202831583903]
本稿では、生成的人工知能が、人間とAIの両方がコンテンツを生成するオンラインプラットフォームにどのように影響するかを考察する。
我々は、生産的AIが供給と需要をどのように変化させ、交通分布に影響を与え、社会福祉に影響を及ぼすかを理解するためのモデルを開発する。
論文 参考訳(メタデータ) (2024-10-17T00:14:12Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - AI Explainability 360: Impact and Design [120.95633114160688]
2019年、私たちはAI Explainability 360(Arya et al. 2020)を開発しました。
本稿では,いくつかのケーススタディ,統計,コミュニティフィードバックを用いて,ツールキットが与える影響について検討する。
また,ツールキットのフレキシブルな設計,使用例,利用者が利用可能な教育資料や資料についても述べる。
論文 参考訳(メタデータ) (2021-09-24T19:17:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。