論文の概要: Artificial Intelligence in Deliberation: The AI Penalty and the Emergence of a New Deliberative Divide
- arxiv url: http://arxiv.org/abs/2503.07690v1
- Date: Mon, 10 Mar 2025 16:33:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-12 15:46:06.041740
- Title: Artificial Intelligence in Deliberation: The AI Penalty and the Emergence of a New Deliberative Divide
- Title(参考訳): 熟考における人工知能:AIの罰則と新しい熟考の発端
- Authors: Andreas Jungherr, Adrian Rauchfleisch,
- Abstract要約: デジタル審議は民主的参加を拡大したが、課題は残る。
人工知能(AI)の最近の進歩は潜在的な解決策を提供するが、熟考におけるAIの役割に対する大衆の認識はいまだに過小評価されている。
AIが熟考、公的な信頼、受け入れ、参加意欲に統合される場合、影響される可能性がある。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Digital deliberation has expanded democratic participation, yet challenges remain. This includes processing information at scale, moderating discussions, fact-checking, or attracting people to participate. Recent advances in artificial intelligence (AI) offer potential solutions, but public perceptions of AI's role in deliberation remain underexplored. Beyond efficiency, democratic deliberation is about voice and recognition. If AI is integrated into deliberation, public trust, acceptance, and willingness to participate may be affected. We conducted a preregistered survey experiment with a representative sample in Germany (n=1850) to examine how information about AI-enabled deliberation influences willingness to participate and perceptions of deliberative quality. Respondents were randomly assigned to treatments that provided them information about deliberative tasks facilitated by either AI or humans. Our findings reveal a significant AI-penalty. Participants were less willing to engage in AI-facilitated deliberation and rated its quality lower than human-led formats. These effects were moderated by individual predispositions. Perceptions of AI's societal benefits and anthropomorphization of AI showed positive interaction effects on people's interest to participate in AI-enabled deliberative formats and positive quality assessments, while AI risk assessments showed negative interactions with information about AI-enabled deliberation. These results suggest AI-enabled deliberation faces substantial public skepticism, potentially even introducing a new deliberative divide. Unlike traditional participation gaps based on education or demographics, this divide is shaped by attitudes toward AI. As democratic engagement increasingly moves online, ensuring AI's role in deliberation does not discourage participation or deepen inequalities will be a key challenge for future research and policy.
- Abstract(参考訳): デジタル審議は民主的参加を拡大したが、課題は残る。
これには、大規模な情報処理、議論のモデレーション、ファクトチェック、参加する人々を惹きつけることが含まれる。
人工知能(AI)の最近の進歩は潜在的な解決策を提供するが、熟考におけるAIの役割に対する大衆の認識はいまだに過小評価されている。
効率性以外にも、民主的な議論は音声と認識に関するものだ。
AIが熟考、公的な信頼、受け入れ、参加意欲に統合される場合、影響される可能性がある。
我々は,ドイツにおける代表的サンプル(n=1850)を用いて事前登録された調査実験を行い,AIを活用した熟考に関する情報が参加意欲や熟考品質の認知にどのように影響するかを検討した。
レスポンデントはランダムに治療に割り当てられ、AIまたは人間によって促進された熟考的タスクに関する情報を提供した。
以上の結果から,AIの問題点が明らかとなった。
参加者はAIに精通した熟考に熱心ではなく、人間主導のフォーマットよりも品質が低いと評価した。
これらの効果は個々の前処理によって抑制された。
AIの社会的利益の知覚とAIの人為的形態化は、AI対応の熟考形式や肯定的な品質評価への人々の関心に対する肯定的な相互作用を示し、一方、AIリスクアセスメントはAI対応の熟考に関する情報との負の相互作用を示した。
これらの結果は、AI対応の熟考が公衆の懐疑に直面することを示唆しており、新たな熟考の分割も導入される可能性があることを示唆している。
教育や人口統計に基づく伝統的な参加ギャップとは異なり、この隔たりはAIに対する態度によって形成されている。
民主的エンゲージメントがますますオンラインに移行するにつれて、AIの熟考における役割を確実にすることは、参加を妨げたり、不平等を深めることは、将来の研究と政策にとって重要な課題となる。
関連論文リスト
- How Performance Pressure Influences AI-Assisted Decision Making [57.53469908423318]
我々は、プレッシャーと説明可能なAI(XAI)技術がAIアドバイステイク行動とどのように相互作用するかを示す。
我々の結果は、圧力とXAIの異なる組み合わせで複雑な相互作用効果を示し、AIアドバイスの行動を改善するか、悪化させるかのどちらかを示す。
論文 参考訳(メタデータ) (2024-10-21T22:39:52Z) - Biased AI can Influence Political Decision-Making [64.9461133083473]
本稿では、AI言語モデルにおけるパルチザンバイアスが政治的意思決定に及ぼす影響について検討する。
政治的に偏見のあるモデルに晒された参加者は、意見を採用し、AIの偏見と一致した決定を下す可能性が著しく高いことがわかった。
論文 参考訳(メタデータ) (2024-10-08T22:56:00Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - Multi-stakeholder Perspective on Responsible Artificial Intelligence and
Acceptability in Education [0.0]
この研究は、多職種の視点から、教育における異なるAI応用の受容性について検討した。
データプライバシ、AIエージェンシー、透明性、説明可能性、AIの倫理的展開に関する懸念に対処する。
論文 参考訳(メタデータ) (2024-02-22T23:59:59Z) - Training Towards Critical Use: Learning to Situate AI Predictions
Relative to Human Knowledge [22.21959942886099]
我々は、人間がAIモデルでは利用できない知識に対してAI予測をシチュレートする能力を集中させる「クリティカルユース」と呼ばれるプロセス指向の適切な依存の概念を紹介します。
我々は、児童虐待スクリーニングという複雑な社会的意思決定環境でランダム化オンライン実験を行う。
参加者にAIによる意思決定を実践する、迅速で低い機会を提供することによって、初心者は、経験豊富な労働者に類似したAIとの不一致のパターンを示すようになった。
論文 参考訳(メタデータ) (2023-08-30T01:54:31Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Competent but Rigid: Identifying the Gap in Empowering AI to Participate
Equally in Group Decision-Making [25.913473823070863]
人間とAIの協調的な意思決定に関する既存の研究は、主にAIと個々の意思決定者との相互作用に焦点を当てている。
本稿では、2人の参加者と1人のAIが3つの英語エッセイをランク付けする委員会を結成するウィザード・オブ・オズ(Wizard-of-oz)研究について述べる。
論文 参考訳(メタデータ) (2023-02-17T11:07:17Z) - FATE in AI: Towards Algorithmic Inclusivity and Accessibility [0.0]
AIにおけるアルゴリズム上の格差、公平性、説明責任、透明性、倫理(FATE)が実装されている。
本研究では、AIによって守られている世界南部地域のFATE関連デシダータ、特に透明性と倫理について検討する。
インクリシティを促進するために、コミュニティ主導の戦略が提案され、責任あるAI設計のための代表データを収集し、キュレートする。
論文 参考訳(メタデータ) (2023-01-03T15:08:10Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。