論文の概要: Media and responsible AI governance: a game-theoretic and LLM analysis
- arxiv url: http://arxiv.org/abs/2503.09858v1
- Date: Wed, 12 Mar 2025 21:39:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-14 15:51:12.968647
- Title: Media and responsible AI governance: a game-theoretic and LLM analysis
- Title(参考訳): メディアと責任あるAIガバナンス:ゲーム理論とLLM分析
- Authors: Nataliya Balabanova, Adeela Bashir, Paolo Bova, Alessio Buscemi, Theodor Cimpeanu, Henrique Correia da Fonseca, Alessandro Di Stefano, Manh Hong Duong, Elias Fernandez Domingos, Antonio Fernandes, The Anh Han, Marcus Krellner, Ndidi Bianca Ogbo, Simon T. Powers, Daniele Proverbio, Fernando P. Santos, Zia Ush Shamszaman, Zhao Song,
- Abstract要約: 本稿では,信頼できるAIシステムを育成する上での,AI開発者,規制当局,ユーザ,メディア間の相互作用について検討する。
進化的ゲーム理論と大言語モデル(LLM)を用いて、異なる規制体制下でこれらのアクター間の戦略的相互作用をモデル化する。
- 参考スコア(独自算出の注目度): 61.132523071109354
- License:
- Abstract: This paper investigates the complex interplay between AI developers, regulators, users, and the media in fostering trustworthy AI systems. Using evolutionary game theory and large language models (LLMs), we model the strategic interactions among these actors under different regulatory regimes. The research explores two key mechanisms for achieving responsible governance, safe AI development and adoption of safe AI: incentivising effective regulation through media reporting, and conditioning user trust on commentariats' recommendation. The findings highlight the crucial role of the media in providing information to users, potentially acting as a form of "soft" regulation by investigating developers or regulators, as a substitute to institutional AI regulation (which is still absent in many regions). Both game-theoretic analysis and LLM-based simulations reveal conditions under which effective regulation and trustworthy AI development emerge, emphasising the importance of considering the influence of different regulatory regimes from an evolutionary game-theoretic perspective. The study concludes that effective governance requires managing incentives and costs for high quality commentaries.
- Abstract(参考訳): 本稿では,信頼できるAIシステムを育成する上で,AI開発者,規制当局,ユーザ,メディア間の複雑な相互作用について検討する。
進化的ゲーム理論と大言語モデル(LLM)を用いて、異なる規制体制下でこれらのアクター間の戦略的相互作用をモデル化する。
この研究は、責任あるガバナンスを達成するための2つの重要なメカニズム、安全なAI開発、安全なAIの採用について調査している。
この発見は、情報提供においてメディアが重要な役割を担い、開発者や規制機関を調査する「ソフト」規制の一形態として機能し、機関的なAI規制(多くの地域ではまだ欠落している)の代わりに機能する可能性があることを強調している。
ゲーム理論分析とLLMに基づくシミュレーションの両方は、効果的な規制と信頼できるAI開発が出現する条件を明らかにし、進化的なゲーム理論の観点から異なる規制体制の影響を考慮することの重要性を強調している。
この研究は、効果的なガバナンスは高品質な注釈書のインセンティブとコストを管理する必要があると結論付けている。
関連論文リスト
- Causal Responsibility Attribution for Human-AI Collaboration [62.474732677086855]
本稿では,人間のAIシステムにおける責任を体系的に評価するために,構造因果モデル(SCM)を用いた因果的枠組みを提案する。
2つのケーススタディは、多様な人間とAIのコラボレーションシナリオにおけるフレームワークの適応性を示している。
論文 参考訳(メタデータ) (2024-11-05T17:17:45Z) - Can We Trust AI Agents? An Experimental Study Towards Trustworthy LLM-Based Multi-Agent Systems for AI Ethics [10.084913433923566]
本研究では,信頼度向上技術が倫理的AI出力生成に与える影響について検討する。
我々はLLM-BMASのプロトタイプを設計し、エージェントは現実世界の倫理的AI問題に関する構造化された議論を行う。
議論では、バイアス検出、透明性、説明責任、ユーザの同意、コンプライアンス、公正性評価、EU AI Actコンプライアンスといった用語が明らかにされている。
論文 参考訳(メタデータ) (2024-10-25T20:17:59Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Generative AI Needs Adaptive Governance [0.0]
ジェネレーティブAIは、ガバナンス、信頼、ヒューマンエージェンシーの概念に挑戦する。
本稿では,ジェネレーティブAIが適応的ガバナンスを求めていることを論じる。
我々は、アクター、ロール、および共有およびアクター固有のポリシー活動の概要を概説する。
論文 参考訳(メタデータ) (2024-06-06T23:47:14Z) - AI Governance and Accountability: An Analysis of Anthropic's Claude [0.0]
本稿では,基本的AIモデルであるArthropicのClaudeに着目し,AIガバナンスの展望について考察する。
我々は、NIST AI Risk Management FrameworkとEU AI Actのレンズを通してCludeを分析し、潜在的な脅威を特定し、緩和戦略を提案する。
論文 参考訳(メタデータ) (2024-05-02T23:37:06Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Putting AI Ethics into Practice: The Hourglass Model of Organizational
AI Governance [0.0]
AIシステムの開発と利用を目標とする,AIガバナンスフレームワークを提案する。
このフレームワークは、AIシステムをデプロイする組織が倫理的AI原則を実践に翻訳するのを助けるように設計されている。
論文 参考訳(メタデータ) (2022-06-01T08:55:27Z) - AI Governance for Businesses [2.072259480917207]
データを有効に活用し、AI関連のコストとリスクを最小限にすることで、AIを活用することを目指している。
この作業では、AIプロダクトをシステムとみなし、機械学習(ML)モデルによって(トレーニング)データを活用する重要な機能が提供される。
我々のフレームワークは、AIガバナンスを4次元に沿ってデータガバナンス、(ML)モデル、(AI)システムに分解します。
論文 参考訳(メタデータ) (2020-11-20T22:31:37Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。