論文の概要: Strategies for Increasing Corporate Responsible AI Prioritization
- arxiv url: http://arxiv.org/abs/2405.03855v2
- Date: Sun, 28 Jul 2024 20:39:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-30 23:18:12.338894
- Title: Strategies for Increasing Corporate Responsible AI Prioritization
- Title(参考訳): 企業の責任を負うAIプライオリティ化を促進するための戦略
- Authors: Angelina Wang, Teresa Datta, John P. Dickerson,
- Abstract要約: 我々は,RAIの優先順位を高めるために,歴史的に動機づけられた企業を調査するため,実践者に対して16回の半構造化インタビューを行った。
現れるのは、矛盾とさまざまな要因の複雑な物語ですが、私たちは、利用可能なさまざまな戦略を強調して、物語に構造をもたらします。
- 参考スコア(独自算出の注目度): 32.7489706790538
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Responsible artificial intelligence (RAI) is increasingly recognized as a critical concern. However, the level of corporate RAI prioritization has not kept pace. In this work, we conduct 16 semi-structured interviews with practitioners to investigate what has historically motivated companies to increase the prioritization of RAI. What emerges is a complex story of conflicting and varied factors, but we bring structure to the narrative by highlighting the different strategies available to employ, and point to the actors with access to each. While there are no guaranteed steps for increasing RAI prioritization, we paint the current landscape of motivators so that practitioners can learn from each other, and put forth our own selection of promising directions forward.
- Abstract(参考訳): 責任ある人工知能(RAI)は、ますます重要な関心事として認識されている。
しかし、企業RAIの優先順位付けのレベルはペースを保っていない。
本研究では,RAIの優先性を高めるために,企業を歴史的に動機づけてきたものについて,実践者に対して16回の半構造化インタビューを行った。
現れるのは、矛盾する要因とさまざまな要因の複雑な物語ですが、私たちは、採用可能なさまざまな戦略を強調して、それぞれにアクセス可能なアクターを指し示することで、物語に構造をもたらします。
RAI優先化を促進するための保証されたステップはないが、私たちは、実践者が互いに学び合うように、現在のモチベーターの風景を描き、将来性のある方向の選択を私たち自身で進める。
関連論文リスト
- Responsible AI in the Global Context: Maturity Model and Survey [0.3613661942047476]
責任AI(Responsible AI, RAI)は、産業、政策立案、学界に重点を置いている。
本研究は、このトピックに関する最も広範な調査の1つを通じて、RAIのグローバルな状況について調査する。
組織におけるRAIの成熟度モデルを定義し、組織的かつ運用的なRAI対策の実施方法のマップを作成します。
論文 参考訳(メタデータ) (2024-10-13T20:04:32Z) - Achieving Responsible AI through ESG: Insights and Recommendations from Industry Engagement [15.544366555353262]
本研究では、主要な企業が責任あるAI(RAI)と環境、社会、ガバナンス(ESG)の目標をどのように一致させるかを検討する。
RAIとESGの実践との間には強いつながりがあるが、内部のRAI政策と公開との間には大きなギャップがある。
我々は、RAI戦略の強化、透明性の重視、クロスファンクショナルなコラボレーション、既存のESGフレームワークへのシームレスな統合を推奨します。
論文 参考訳(メタデータ) (2024-08-30T05:48:03Z) - Do Responsible AI Artifacts Advance Stakeholder Goals? Four Key Barriers Perceived by Legal and Civil Stakeholders [59.17981603969404]
責任あるAI(RAI)コミュニティは、透明性を促進し、AIシステムのガバナンスをサポートするために、多数のプロセスとアーティファクトを導入している。
我々は、責任あるAI活動に関する政策と擁護を通知する19の政府、法律、市民社会の利害関係者と半構造化されたインタビューを行う。
我々は、これらの信念を4つの障壁にまとめて、RAIアーティファクトが(必然的に)市民社会、政府、産業間での権力関係を再構成する方法を説明する。
論文 参考訳(メタデータ) (2024-08-22T00:14:37Z) - The Landscape of Emerging AI Agent Architectures for Reasoning, Planning, and Tool Calling: A Survey [0.0]
本稿では,AIエージェントの実装の最近の進歩について考察する。
推論、計画、ツールの実行能力の強化を必要とする複雑な目標を達成する能力に重点を置いている。
論文 参考訳(メタデータ) (2024-04-17T17:32:41Z) - LLM as a Mastermind: A Survey of Strategic Reasoning with Large Language Models [75.89014602596673]
戦略推論は、戦略を調整しながら、マルチエージェント設定における敵の行動を理解し、予測する必要がある。
大規模言語モデルを用いた戦略的推論に関連するスコープ,アプリケーション,方法論,評価指標について検討する。
戦略的推論を重要な認知能力として重要視し、将来の研究の方向性や潜在的な改善に関する洞察を提供する。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - K-Level Reasoning: Establishing Higher Order Beliefs in Large Language Models for Strategic Reasoning [76.3114831562989]
マルチエージェント環境で戦略を動的に適応させるためには、LLM(Large Language Model)エージェントが必要である。
我々は,「K-Level Reasoning with Large Language Models (K-R)」という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-02T16:07:05Z) - On the Security Risks of Knowledge Graph Reasoning [71.64027889145261]
我々は、敵の目標、知識、攻撃ベクトルに応じて、KGRに対するセキュリティ脅威を体系化する。
我々は、このような脅威をインスタンス化する新しいタイプの攻撃であるROARを提示する。
ROARに対する潜在的な対策として,潜在的に有毒な知識のフィルタリングや,対向的な拡張クエリによるトレーニングについて検討する。
論文 参考訳(メタデータ) (2023-05-03T18:47:42Z) - Artificial Intelligence and Dual Contract [2.1756081703276]
独立したQ-ラーニングアルゴリズムを備えた2つのプリンシパルが1つのエージェントと対話するモデルを開発する。
その結果、AIプリンシパルの戦略的行動は、利益の整合性に決定的に左右されることがわかった。
論文 参考訳(メタデータ) (2023-03-22T07:31:44Z) - Autonomous Open-Ended Learning of Tasks with Non-Stationary
Interdependencies [64.0476282000118]
固有のモチベーションは、目標間のトレーニング時間を適切に割り当てるタスクに依存しないシグナルを生成することが証明されている。
内在的に動機付けられたオープンエンドラーニングの分野におけるほとんどの研究は、目標が互いに独立しているシナリオに焦点を当てているが、相互依存タスクの自律的な獲得を研究するのはごくわずかである。
特に,タスク間の関係に関する情報をアーキテクチャのより高レベルなレベルで組み込むことの重要性を示す。
そして、自律的に取得したシーケンスを格納する新しい学習層を追加することで、前者を拡張する新しいシステムであるH-GRAILを紹介する。
論文 参考訳(メタデータ) (2022-05-16T10:43:01Z) - Stateful Strategic Regression [20.7177095411398]
結果のゲームにおけるスタックルバーグ均衡を記述し、計算のための新しいアルゴリズムを提供する。
分析の結果,ゲームの結果を形作る上でのマルチインタラクションの役割について,いくつかの興味深い知見が得られた。
最も重要なことは、処理時に複数ラウンドの相互作用を行うことで、主成分は、目的の方向に努力を蓄積するために、エージェントにインセンティブを与えるのにより効果的であることを示すことである。
論文 参考訳(メタデータ) (2021-06-07T17:46:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。