論文の概要: Envisioning Stakeholder-Action Pairs to Mitigate Negative Impacts of AI: A Participatory Approach to Inform Policy Making
- arxiv url: http://arxiv.org/abs/2502.14869v1
- Date: Fri, 24 Jan 2025 22:57:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-02 04:52:13.035145
- Title: Envisioning Stakeholder-Action Pairs to Mitigate Negative Impacts of AI: A Participatory Approach to Inform Policy Making
- Title(参考訳): AIの否定的影響を軽減するためのステークホルダー・アクション・ペアの構想--政策立案への参加的アプローチ
- Authors: Julia Barnett, Kimon Kieslich, Natali Helberger, Nicholas Diakopoulos,
- Abstract要約: AIによるネガティブな影響の可能性は、世界中で急速に広まりつつある。
これにより、責任あるAIガバナンスの必要性が強まりました。
AIポリシが民主的な期待に沿うようにするためには、影響のある人たちの声やニーズを優先する方法が必要です。
- 参考スコア(独自算出の注目度): 2.981139602986498
- License:
- Abstract: The potential for negative impacts of AI has rapidly become more pervasive around the world, and this has intensified a need for responsible AI governance. While many regulatory bodies endorse risk-based approaches and a multitude of risk mitigation practices are proposed by companies and academic scholars, these approaches are commonly expert-centered and thus lack the inclusion of a significant group of stakeholders. Ensuring that AI policies align with democratic expectations requires methods that prioritize the voices and needs of those impacted. In this work we develop a participative and forward-looking approach to inform policy-makers and academics that grounds the needs of lay stakeholders at the forefront and enriches the development of risk mitigation strategies. Our approach (1) maps potential mitigation and prevention strategies of negative AI impacts that assign responsibility to various stakeholders, (2) explores the importance and prioritization thereof in the eyes of laypeople, and (3) presents these insights in policy fact sheets, i.e., a digestible format for informing policy processes. We emphasize that this approach is not targeted towards replacing policy-makers; rather our aim is to present an informative method that enriches mitigation strategies and enables a more participatory approach to policy development.
- Abstract(参考訳): AIによるネガティブな影響の可能性は、世界中で急速に広まり、AIガバナンスの責任を負う必要性が強まっている。
多くの規制機関はリスクベースのアプローチを支持しており、企業や学者によって様々なリスク軽減プラクティスが提案されているが、これらのアプローチは一般的に専門家中心であり、重要な利害関係者のグループを含まない。
AIポリシが民主的な期待に沿うようにするためには、影響のある人たちの声やニーズを優先する方法が必要です。
本研究は、政策立案者や学者に、政策立案者のニーズを最前線に置き、リスク軽減戦略の開発を強化する、参加的で先進的なアプローチを開発する。
提案手法は, 様々な利害関係者に責任を委譲する負のAI影響の潜在的な緩和・防止戦略をマッピングし, その重要性と優先順位を探究し, 政策ファクトシート, すなわち, 政策プロセスを伝えるための消化可能なフォーマットにこれらの知見を提示する。
我々は、このアプローチが政策立案者を置き換えることではなく、緩和戦略を強化し、政策開発へのより参加的なアプローチを可能にする情報的手法を提供することを強調している。
関連論文リスト
- Global Perspectives of AI Risks and Harms: Analyzing the Negative Impacts of AI Technologies as Prioritized by News Media [3.2566808526538873]
AI技術は経済成長とイノベーションを促進する可能性があるが、社会に重大なリスクをもたらす可能性がある。
これらのニュアンスを理解する一つの方法は、メディアがAIにどう報告するかを調べることである。
我々は、アジア、アフリカ、ヨーロッパ、中東、北アメリカ、オセアニアにまたがる27カ国にまたがる、広く多様なグローバルニュースメディアのサンプルを分析した。
論文 参考訳(メタデータ) (2025-01-23T19:14:11Z) - Towards Responsible Governing AI Proliferation [0.0]
論文では、小規模で分散化されたオープンソースのAIモデルの台頭を期待するProliferation'パラダイムを紹介している。
これらの発展は、可能性があり、利益と新たなリスクの両方をもたらす可能性が高いことを示唆している。
論文 参考訳(メタデータ) (2024-12-18T13:10:35Z) - Attack Atlas: A Practitioner's Perspective on Challenges and Pitfalls in Red Teaming GenAI [52.138044013005]
生成AI、特に大規模言語モデル(LLM)は、製品アプリケーションにますます統合される。
新たな攻撃面と脆弱性が出現し、自然言語やマルチモーダルシステムにおける敵の脅威に焦点を当てる。
レッドチーム(英語版)はこれらのシステムの弱点を積極的に識別する上で重要となり、ブルーチーム(英語版)はそのような敵の攻撃から保護する。
この研究は、生成AIシステムの保護のための学術的な洞察と実践的なセキュリティ対策のギャップを埋めることを目的としている。
論文 参考訳(メタデータ) (2024-09-23T10:18:10Z) - Implications for Governance in Public Perceptions of Societal-scale AI Risks [0.29022435221103454]
投票者は、AIのリスクは専門家よりも可能性が高く影響も大きいと認識し、AI開発を遅くすることを主張する。
政策介入は、社会規模リスクの全てのクラスにまたがる緩和努力をより慎重にバランスを取ろうとすれば、集団の懸念を和らげるのがよい。
論文 参考訳(メタデータ) (2024-06-10T11:52:25Z) - AI Risk Management Should Incorporate Both Safety and Security [185.68738503122114]
AIリスクマネジメントの利害関係者は、安全とセキュリティの間のニュアンス、シナジー、相互作用を意識すべきである、と私たちは主張する。
我々は、AIの安全性とAIのセキュリティの違いと相互作用を明らかにするために、統一された参照フレームワークを導入する。
論文 参考訳(メタデータ) (2024-05-29T21:00:47Z) - Simulating Policy Impacts: Developing a Generative Scenario Writing Method to Evaluate the Perceived Effects of Regulation [3.2566808526538873]
我々は、GPT-4を用いて、政策導入前と後の両方のシナリオを生成する。
次に、これらのシナリオを4つのリスク評価次元で評価するために、ユーザスタディを実行します。
この透明性法は、労働や幸福といった分野の害を軽減できるが、社会的な結束や安全保障といった分野ではほとんど効果がないと考えられる。
論文 参考訳(メタデータ) (2024-05-15T19:44:54Z) - LLM as a Mastermind: A Survey of Strategic Reasoning with Large Language Models [75.89014602596673]
戦略推論は、戦略を調整しながら、マルチエージェント設定における敵の行動を理解し、予測する必要がある。
大規模言語モデルを用いた戦略的推論に関連するスコープ,アプリケーション,方法論,評価指標について検討する。
戦略的推論を重要な認知能力として重要視し、将来の研究の方向性や潜在的な改善に関する洞察を提供する。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - On the Value of Myopic Behavior in Policy Reuse [67.37788288093299]
未知のシナリオで学習戦略を活用することは、人間の知性の基本である。
本稿では,Selectivemyopic bEhavior Control(SMEC)というフレームワークを提案する。
SMECは、事前ポリシーの共有可能な短期的行動とタスクポリシーの長期的行動を適応的に集約し、協調的な決定につながる。
論文 参考訳(メタデータ) (2023-05-28T03:59:37Z) - Institutionalising Ethics in AI through Broader Impact Requirements [8.793651996676095]
私たちは、世界最大級のAIカンファレンスの1つによる、新しいガバナンスイニシアチブを反映しています。
NeurIPSは、著者に対して、彼らの研究のより広範な社会的影響に関する声明を提出する要求を導入した。
このようなイニシアティブのリスクや課題,潜在的なメリットについて検討する。
論文 参考訳(メタデータ) (2021-05-30T12:36:43Z) - Learning Goal-oriented Dialogue Policy with Opposite Agent Awareness [116.804536884437]
本稿では,目標指向対話における政策学習のための逆行動認識フレームワークを提案する。
我々は、その行動から相手エージェントの方針を推定し、この推定を用いてターゲットエージェントを対象ポリシーの一部として関連づけて改善する。
論文 参考訳(メタデータ) (2020-04-21T03:13:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。