論文の概要: Envisioning Stakeholder-Action Pairs to Mitigate Negative Impacts of AI: A Participatory Approach to Inform Policy Making
- arxiv url: http://arxiv.org/abs/2502.14869v1
- Date: Fri, 24 Jan 2025 22:57:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-02 20:17:19.730343
- Title: Envisioning Stakeholder-Action Pairs to Mitigate Negative Impacts of AI: A Participatory Approach to Inform Policy Making
- Title(参考訳): AIの否定的影響を軽減するためのステークホルダー・アクション・ペアの構想--政策立案への参加的アプローチ
- Authors: Julia Barnett, Kimon Kieslich, Natali Helberger, Nicholas Diakopoulos,
- Abstract要約: AIによるネガティブな影響の可能性は、世界中で急速に広まりつつある。
これにより、責任あるAIガバナンスの必要性が強まりました。
AIポリシが民主的な期待に沿うようにするためには、影響のある人たちの声やニーズを優先する方法が必要です。
- 参考スコア(独自算出の注目度): 2.981139602986498
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The potential for negative impacts of AI has rapidly become more pervasive around the world, and this has intensified a need for responsible AI governance. While many regulatory bodies endorse risk-based approaches and a multitude of risk mitigation practices are proposed by companies and academic scholars, these approaches are commonly expert-centered and thus lack the inclusion of a significant group of stakeholders. Ensuring that AI policies align with democratic expectations requires methods that prioritize the voices and needs of those impacted. In this work we develop a participative and forward-looking approach to inform policy-makers and academics that grounds the needs of lay stakeholders at the forefront and enriches the development of risk mitigation strategies. Our approach (1) maps potential mitigation and prevention strategies of negative AI impacts that assign responsibility to various stakeholders, (2) explores the importance and prioritization thereof in the eyes of laypeople, and (3) presents these insights in policy fact sheets, i.e., a digestible format for informing policy processes. We emphasize that this approach is not targeted towards replacing policy-makers; rather our aim is to present an informative method that enriches mitigation strategies and enables a more participatory approach to policy development.
- Abstract(参考訳): AIによるネガティブな影響の可能性は、世界中で急速に広まり、AIガバナンスの責任を負う必要性が強まっている。
多くの規制機関はリスクベースのアプローチを支持しており、企業や学者によって様々なリスク軽減プラクティスが提案されているが、これらのアプローチは一般的に専門家中心であり、重要な利害関係者のグループを含まない。
AIポリシが民主的な期待に沿うようにするためには、影響のある人たちの声やニーズを優先する方法が必要です。
本研究は、政策立案者や学者に、政策立案者のニーズを最前線に置き、リスク軽減戦略の開発を強化する、参加的で先進的なアプローチを開発する。
提案手法は, 様々な利害関係者に責任を委譲する負のAI影響の潜在的な緩和・防止戦略をマッピングし, その重要性と優先順位を探究し, 政策ファクトシート, すなわち, 政策プロセスを伝えるための消化可能なフォーマットにこれらの知見を提示する。
我々は、このアプローチが政策立案者を置き換えることではなく、緩和戦略を強化し、政策開発へのより参加的なアプローチを可能にする情報的手法を提供することを強調している。
関連論文リスト
- Media and responsible AI governance: a game-theoretic and LLM analysis [61.132523071109354]
本稿では,信頼できるAIシステムを育成する上での,AI開発者,規制当局,ユーザ,メディア間の相互作用について検討する。
進化的ゲーム理論と大言語モデル(LLM)を用いて、異なる規制体制下でこれらのアクター間の戦略的相互作用をモデル化する。
論文 参考訳(メタデータ) (2025-03-12T21:39:38Z) - Securing External Deeper-than-black-box GPAI Evaluations [49.1574468325115]
本稿では,汎用AI(GPAI)モデルの安全かつ効果的な外部評価を行う上での課題と可能性について検討する。
サイズ、能力、到達度、付随するリスクの指数的な増加により、説明責任、安全性、および公的な信頼を保証するには、従来のブラックボックスメソッドを超えるフレームワークが必要である。
論文 参考訳(メタデータ) (2025-03-10T16:13:45Z) - Global Perspectives of AI Risks and Harms: Analyzing the Negative Impacts of AI Technologies as Prioritized by News Media [3.2566808526538873]
AI技術は経済成長とイノベーションを促進する可能性があるが、社会に重大なリスクをもたらす可能性がある。
これらのニュアンスを理解する一つの方法は、メディアがAIにどう報告するかを調べることである。
我々は、アジア、アフリカ、ヨーロッパ、中東、北アメリカ、オセアニアにまたがる27カ国にまたがる、広く多様なグローバルニュースメディアのサンプルを分析した。
論文 参考訳(メタデータ) (2025-01-23T19:14:11Z) - Towards Responsible Governing AI Proliferation [0.0]
論文では、小規模で分散化されたオープンソースのAIモデルの台頭を期待するProliferation'パラダイムを紹介している。
これらの発展は、可能性があり、利益と新たなリスクの両方をもたらす可能性が高いことを示唆している。
論文 参考訳(メタデータ) (2024-12-18T13:10:35Z) - Implications for Governance in Public Perceptions of Societal-scale AI Risks [0.29022435221103454]
投票者は、AIのリスクは専門家よりも可能性が高く影響も大きいと認識し、AI開発を遅くすることを主張する。
政策介入は、社会規模リスクの全てのクラスにまたがる緩和努力をより慎重にバランスを取ろうとすれば、集団の懸念を和らげるのがよい。
論文 参考訳(メタデータ) (2024-06-10T11:52:25Z) - Simulating Policy Impacts: Developing a Generative Scenario Writing Method to Evaluate the Perceived Effects of Regulation [3.2566808526538873]
我々は、GPT-4を用いて、政策導入前と後の両方のシナリオを生成する。
次に、これらのシナリオを4つのリスク評価次元で評価するために、ユーザスタディを実行します。
この透明性法は、労働や幸福といった分野の害を軽減できるが、社会的な結束や安全保障といった分野ではほとんど効果がないと考えられる。
論文 参考訳(メタデータ) (2024-05-15T19:44:54Z) - LLM as a Mastermind: A Survey of Strategic Reasoning with Large Language Models [75.89014602596673]
戦略推論は、戦略を調整しながら、マルチエージェント設定における敵の行動を理解し、予測する必要がある。
大規模言語モデルを用いた戦略的推論に関連するスコープ,アプリケーション,方法論,評価指標について検討する。
戦略的推論を重要な認知能力として重要視し、将来の研究の方向性や潜在的な改善に関する洞察を提供する。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - On strategies for risk management and decision making under uncertainty shared across multiple fields [55.2480439325792]
本稿では、このような戦略の110以上の例を見つけ、リスクに対するこのアプローチをRDOT: Risk-reducing Design and Operations Toolkitと呼ぶ。
RDOT戦略は、構造的、反応性、形式的、敵対的、多段階、ポジティブの6つの幅広いカテゴリに分類される。
全体的なRDOTは、不確実性に対する多目的応答の見過ごされたクラスを表している。
論文 参考訳(メタデータ) (2023-09-06T16:14:32Z) - On the Value of Myopic Behavior in Policy Reuse [67.37788288093299]
未知のシナリオで学習戦略を活用することは、人間の知性の基本である。
本稿では,Selectivemyopic bEhavior Control(SMEC)というフレームワークを提案する。
SMECは、事前ポリシーの共有可能な短期的行動とタスクポリシーの長期的行動を適応的に集約し、協調的な決定につながる。
論文 参考訳(メタデータ) (2023-05-28T03:59:37Z) - Institutionalising Ethics in AI through Broader Impact Requirements [8.793651996676095]
私たちは、世界最大級のAIカンファレンスの1つによる、新しいガバナンスイニシアチブを反映しています。
NeurIPSは、著者に対して、彼らの研究のより広範な社会的影響に関する声明を提出する要求を導入した。
このようなイニシアティブのリスクや課題,潜在的なメリットについて検討する。
論文 参考訳(メタデータ) (2021-05-30T12:36:43Z) - Learning Goal-oriented Dialogue Policy with Opposite Agent Awareness [116.804536884437]
本稿では,目標指向対話における政策学習のための逆行動認識フレームワークを提案する。
我々は、その行動から相手エージェントの方針を推定し、この推定を用いてターゲットエージェントを対象ポリシーの一部として関連づけて改善する。
論文 参考訳(メタデータ) (2020-04-21T03:13:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。