論文の概要: Bottom-Up Perspectives on AI Governance: Insights from User Reviews of AI Products
- arxiv url: http://arxiv.org/abs/2506.00080v1
- Date: Fri, 30 May 2025 01:33:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:32.273608
- Title: Bottom-Up Perspectives on AI Governance: Insights from User Reviews of AI Products
- Title(参考訳): AIガバナンスに関するボトムアップの視点:AIプロダクトのユーザレビューから
- Authors: Stefan Pasch,
- Abstract要約: 本研究は,ガバナンス関連テーマをユーザ談話でどのように表現するかをボトムアップで検討する。
G2.comの10万以上のAI製品のユーザレビューに基づいて、BERTopicを適用して、潜伏したテーマを抽出し、AIガバナンスに関連する最も意味のあるものを特定する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: With the growing importance of AI governance, numerous high-level frameworks and principles have been articulated by policymakers, institutions, and expert communities to guide the development and application of AI. While such frameworks offer valuable normative orientation, they may not fully capture the practical concerns of those who interact with AI systems in organizational and operational contexts. To address this gap, this study adopts a bottom-up approach to explore how governance-relevant themes are expressed in user discourse. Drawing on over 100,000 user reviews of AI products from G2.com, we apply BERTopic to extract latent themes and identify those most semantically related to AI governance. The analysis reveals a diverse set of governance-relevant topics spanning both technical and non-technical domains. These include concerns across organizational processes-such as planning, coordination, and communication-as well as stages of the AI value chain, including deployment infrastructure, data handling, and analytics. The findings show considerable overlap with institutional AI governance and ethics frameworks on issues like privacy and transparency, but also surface overlooked areas such as project management, strategy development, and customer interaction. This highlights the need for more empirically grounded, user-centered approaches to AI governance-approaches that complement normative models by capturing how governance unfolds in applied settings. By foregrounding how governance is enacted in practice, this study contributes to more inclusive and operationally grounded approaches to AI governance and digital policy.
- Abstract(参考訳): AIガバナンスの重要性が高まるにつれ、多くの高度なフレームワークや原則が政策立案者、機関、専門家コミュニティによって策定され、AIの開発と適用をガイドしている。
このようなフレームワークは、価値ある規範的指向を提供するが、組織的および運用的なコンテキストにおいてAIシステムと対話する人々の実践的な懸念を完全に捉えることはできないかもしれない。
このギャップに対処するため、本研究では、ガバナンス関連テーマがユーザ談話の中でどのように表現されるのかをボトムアップで検討する。
G2.comの10万以上のAI製品のユーザレビューに基づいて、BERTopicを適用して、潜伏したテーマを抽出し、AIガバナンスに関連する最も意味のあるものを特定する。
この分析は、技術ドメインと非技術ドメインの両方にまたがる、ガバナンス関連トピックの多様なセットを明らかにしている。
これらには、計画、調整、コミュニケーションなどの組織プロセスと、デプロイメントインフラストラクチャ、データハンドリング、分析を含むAIバリューチェーンのステージに関する懸念が含まれている。
この調査結果は、プライバシや透明性といった問題に関する機関のAIガバナンスや倫理フレームワークとかなり重なり合うだけでなく、プロジェクト管理や戦略開発、顧客とのインタラクションといった見過ごされている領域も浮かび上がっている。
これは、AIガバナンスを補完する、経験的に根ざしたユーザー中心のアプローチの必要性を強調している。
この研究は、ガバナンスが実際にどのように実行されているのかを予見することによって、AIガバナンスとデジタルポリシーに対するより包括的で運用的に根ざしたアプローチに寄与する。
関連論文リスト
- Toward Effective AI Governance: A Review of Principles [2.5411385112104448]
本研究の目的は、AIガバナンスに関する二次文献において、どのフレームワーク、原則、メカニズム、ステークホルダーの役割が強調されているかを特定することである。
最も引用されているフレームワークは、EU AI ActとNIST RMFである。
論文 参考訳(メタデータ) (2025-05-29T13:07:45Z) - The Role of Legal Frameworks in Shaping Ethical Artificial Intelligence Use in Corporate Governance [0.0]
本稿では、企業統治における倫理的人工知能(AI)利用の形成における法的枠組みの進化的役割について考察する。
企業AIアプリケーションにおける透明性、説明責任、公正性の促進を目的とした、重要な法的および規制的なアプローチを探求する。
論文 参考訳(メタデータ) (2025-03-17T14:21:58Z) - Media and responsible AI governance: a game-theoretic and LLM analysis [61.132523071109354]
本稿では,信頼できるAIシステムを育成する上での,AI開発者,規制当局,ユーザ,メディア間の相互作用について検討する。
進化的ゲーム理論と大言語モデル(LLM)を用いて、異なる規制体制下でこれらのアクター間の戦略的相互作用をモデル化する。
論文 参考訳(メタデータ) (2025-03-12T21:39:38Z) - AI and the Transformation of Accountability and Discretion in Urban Governance [1.9152655229960793]
この研究は洞察を合成し、意思決定プロセスにおける責任あるAI統合のための指針原則を提案する。
分析によると、AIは単に判断を制限したり、強化したりするのではなく、制度レベルで再配布する。
同時に管理の監督を強化し、意思決定の整合性を高め、運用効率を向上させることができる。
論文 参考訳(メタデータ) (2025-02-18T18:11:39Z) - Open Problems in Technical AI Governance [102.19067750759471]
テクニカルAIガバナンス(Technical AI Governance)は、AIの効果的なガバナンスを支援するための技術分析とツールである。
本論文は、AIガバナンスへの貢献を目指す技術研究者や研究資金提供者のためのリソースとして意図されている。
論文 参考訳(メタデータ) (2024-07-20T21:13:56Z) - Challenges and Best Practices in Corporate AI Governance:Lessons from the Biopharmaceutical Industry [0.0]
我々は、AIガバナンスを運用しようとする組織が直面する課題について議論する。
これらには、AIガバナンスの物質的スコープをどのように定義するかに関する質問が含まれている。
私たちは、一般的なベストプラクティスでAIガバナンスフレームワークを設計、実装する責任を持つプロジェクトマネージャ、AI実践者、データプライバシオフィサーを提供したいと思っています。
論文 参考訳(メタデータ) (2024-07-07T12:01:42Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - AI Governance for Businesses [2.072259480917207]
データを有効に活用し、AI関連のコストとリスクを最小限にすることで、AIを活用することを目指している。
この作業では、AIプロダクトをシステムとみなし、機械学習(ML)モデルによって(トレーニング)データを活用する重要な機能が提供される。
我々のフレームワークは、AIガバナンスを4次元に沿ってデータガバナンス、(ML)モデル、(AI)システムに分解します。
論文 参考訳(メタデータ) (2020-11-20T22:31:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。