論文の概要: Levers of Power in the Field of AI
- arxiv url: http://arxiv.org/abs/2511.03859v1
- Date: Wed, 05 Nov 2025 21:03:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-07 20:17:53.215988
- Title: Levers of Power in the Field of AI
- Title(参考訳): AI分野におけるパワーの活用
- Authors: Tammy Mackenzie, Sukriti Punj, Natalie Perez, Sreyoshi Bhaduri, Branislav Radeljic,
- Abstract要約: この研究は、技術的変化に対する制度的な反応を形成する社会的メカニズムとして提示される力のレバーを個人がどのように経験し、行使するかを考察する。
本研究は,意思決定者の制度的パースペクティブ・パースペクティブ・パースペクティブ・パースペクティブ・パースペクティブの回答について報告する。
- 参考スコア(独自算出の注目度): 0.3089233075079027
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper examines how decision makers in academia, government, business, and civil society navigate questions of power in implementations of artificial intelligence. The study explores how individuals experience and exercise levers of power, which are presented as social mechanisms that shape institutional responses to technological change. The study reports on the responses of personalized questionnaires designed to gather insight on a decision maker's institutional purview, based on an institutional governance framework developed from the work of Neo-institutionalists. Findings present the anonymized, real responses and circumstances of respondents in the form of twelve fictional personas of high-level decision makers from North America and Europe. These personas illustrate how personal agency, organizational logics, and institutional infrastructures may intersect in the governance of AI. The decision makers' responses to the questionnaires then inform a discussion of the field-level personal power of decision makers, methods of fostering institutional stability in times of change, and methods of influencing institutional change in the field of AI. The final section of the discussion presents a table of the dynamics of the levers of power in the field of AI for change makers and five testable hypotheses for institutional and social movement researchers. In summary, this study provides insight on the means for policymakers within institutions and their counterparts in civil society to personally engage with AI governance.
- Abstract(参考訳): 本稿では, 学術, 政府, ビジネス, 市民社会における意思決定者が, 人工知能の実践における権力の疑問をいかにナビゲートするかを検討する。
この研究は、技術的変化に対する制度的な反応を形成する社会的メカニズムとして提示される力のレバーを個人がどのように経験し、行使するかを考察する。
本研究は,ネオ・インスティテュータリストの業績をもとに,意思決定者の制度観を把握するためのパーソナライズされたアンケートの回答について報告する。
発見は、北米と欧州の高レベルの意思決定者による12人の架空の人物の形で、回答者の匿名化、実際の反応、状況を示す。
これらのペルソナは、AIのガバナンスにおいて、パーソナルエージェンシー、組織論理、組織インフラがどのように交わるかを説明している。
アンケートに対する意思決定者の回答は、意思決定者のフィールドレベルの個人的能力、変化時の制度的安定性を育む方法、AIの分野における制度的変化に影響を与える方法などについて議論する。
最終節では、変革者のためのAI分野における力のレバーのダイナミクスの表と、制度や社会運動研究者のための5つの実証可能な仮説を提示する。
まとめると、この研究は、機関内の政策立案者と、公民社会内の政策立案者がAIガバナンスに個人的に関与する手段についての洞察を提供する。
関連論文リスト
- Media and responsible AI governance: a game-theoretic and LLM analysis [61.132523071109354]
本稿では,信頼できるAIシステムを育成する上での,AI開発者,規制当局,ユーザ,メディア間の相互作用について検討する。
進化的ゲーム理論と大言語モデル(LLM)を用いて、異なる規制体制下でこれらのアクター間の戦略的相互作用をモデル化する。
論文 参考訳(メタデータ) (2025-03-12T21:39:38Z) - AI and the Transformation of Accountability and Discretion in Urban Governance [1.9152655229960793]
この研究は洞察を合成し、意思決定プロセスにおける責任あるAI統合のための指針原則を提案する。
分析によると、AIは単に判断を制限したり、強化したりするのではなく、制度レベルで再配布する。
同時に管理の監督を強化し、意思決定の整合性を高め、運用効率を向上させることができる。
論文 参考訳(メタデータ) (2025-02-18T18:11:39Z) - Aligning AI with Public Values: Deliberation and Decision-Making for Governing Multimodal LLMs in Political Video Analysis [48.14390493099495]
AIモデルが政治的トピックにどう対処すべきかは議論されているが、依然として困難であり、より優れたガバナンスが必要である。
本稿では、政治的に敏感なビデオを中心に、個人的および集団的な議論を通じて、大規模言語モデルのガバナンスについて検討する。
論文 参考訳(メタデータ) (2024-09-15T03:17:38Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Studying Up Public Sector AI: How Networks of Power Relations Shape Agency Decisions Around AI Design and Use [29.52245155918532]
私たちは、AIツールが代理店で果たす役割について決定する権限と責任を持つ人々について、公共セクターAIを研究します。
私たちの調査結果は、インフラ、法律、社会的要因が、AI設計と採用に関する決定に幅広い利害関係者が関与することに対する障壁や不関心をいかに生み出すかに光を当てています。
論文 参考訳(メタデータ) (2024-05-21T02:31:26Z) - A University Framework for the Responsible use of Generative AI in Research [0.0]
ジェネレーティブ人工知能(Generative Artificial Intelligence、ジェネレーティブAI)は、研究の完全性のための機会とリスクを兼ね備えている。
組織が生成AIの責任ある利用を促進・促進するための枠組みを提案する。
論文 参考訳(メタデータ) (2024-04-30T04:00:15Z) - Foundations for the Future: Institution building for the purpose of
Artificial Intelligence governance [0.0]
人工知能(AI)のガバナンスの取り組みは、ますます具体的になりつつある。
新しい機関は、国内および国際レベルで設置される必要がある。
本稿では、こうした機関の青写真をスケッチし、将来のAIガバナンス機関の3つの重要な構成要素を詳細に調査する。
論文 参考訳(メタデータ) (2021-10-01T10:45:04Z) - A Framework for Understanding AI-Induced Field Change: How AI
Technologies are Legitimized and Institutionalized [0.0]
本稿では,AIによるフィールド変化を分析し,理解するための概念的枠組みを提案する。
新たなAIエージェントを新しい分野や既存の分野に導入することで、アルゴリズムが組織や機関を(再)形成するダイナミクスが生まれる。
AIが引き起こす分野を取り巻く制度的なインフラは概してほとんど精巧ではないため、今後AIシステムのより広範な制度化に支障をきたす可能性がある。
論文 参考訳(メタデータ) (2021-08-18T14:06:08Z) - "A cold, technical decision-maker": Can AI provide explainability,
negotiability, and humanity? [47.36687555570123]
参加者60名からなる5つのワークショップからなるアルゴリズム決定の質的研究の結果を報告する。
意思決定における参加者の人間性に関する考察を議論し,「交渉可能性」という概念を導入する。
論文 参考訳(メタデータ) (2020-12-01T22:36:54Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。