論文の概要: A Framework for Exploring the Consequences of AI-Mediated Enterprise
Knowledge Access and Identifying Risks to Workers
- arxiv url: http://arxiv.org/abs/2312.10076v1
- Date: Fri, 8 Dec 2023 17:05:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-15 13:48:55.350980
- Title: A Framework for Exploring the Consequences of AI-Mediated Enterprise
Knowledge Access and Identifying Risks to Workers
- Title(参考訳): AIを利用した企業知識アクセスと労働者へのリスクの特定のためのフレームワーク
- Authors: Anna Gausen and Bhaskar Mitra and Si\^an Lindley
- Abstract要約: 本稿では、AIを利用した企業知識アクセスシステムから労働者のリスクを特定するためのConsequence-Mechanism-Riskフレームワークを提案する。
我々は、労働者に対するリスクを詳述した幅広い文献を執筆し、労働者の価値、力、幸福に対するリスクを分類した。
今後の作業は、この枠組みを他の技術システムに適用し、労働者や他のグループの保護を促進する可能性がある。
- 参考スコア(独自算出の注目度): 3.3096209174849824
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Organisations generate vast amounts of information, which has resulted in a
long-term research effort into knowledge access systems for enterprise
settings. Recent developments in artificial intelligence, in relation to large
language models, are poised to have significant impact on knowledge access.
This has the potential to shape the workplace and knowledge in new and
unanticipated ways. Many risks can arise from the deployment of these types of
AI systems, due to interactions between the technical system and organisational
power dynamics.
This paper presents the Consequence-Mechanism-Risk framework to identify
risks to workers from AI-mediated enterprise knowledge access systems. We have
drawn on wide-ranging literature detailing risks to workers, and categorised
risks as being to worker value, power, and wellbeing. The contribution of our
framework is to additionally consider (i) the consequences of these systems
that are of moral import: commodification, appropriation, concentration of
power, and marginalisation, and (ii) the mechanisms, which represent how these
consequences may take effect in the system. The mechanisms are a means of
contextualising risk within specific system processes, which is critical for
mitigation. This framework is aimed at helping practitioners involved in the
design and deployment of AI-mediated knowledge access systems to consider the
risks introduced to workers, identify the precise system mechanisms that
introduce those risks and begin to approach mitigation. Future work could apply
this framework to other technological systems to promote the protection of
workers and other groups.
- Abstract(参考訳): 組織は膨大な量の情報を生成し、エンタープライズ環境での知識アクセスシステムに関する長期的な研究に繋がった。
人工知能の最近の発展は、大きな言語モデルに関連して、知識アクセスに大きな影響を与えている。
これは、新しい予想外の方法で職場と知識を形成する可能性がある。
技術的システムと組織的パワーダイナミクスの相互作用によって、この種のAIシステムの展開によって、多くのリスクが発生する可能性がある。
本稿では、aiを媒介とする企業知識アクセスシステムから労働者のリスクを識別する、結果メカニズム・リスクフレームワークを提案する。
我々は、労働者に対するリスクを詳述した幅広い文献を作成し、労働者の価値、権力、幸福に関するリスクを分類した。
私たちのフレームワークの貢献は、さらに考慮することである
(i)道徳輸入であるこれらの制度の結果:コモディフィケーション、分配、権力集中、限界化
(ii)これらの結果がシステムにどのような影響を及ぼすかを示すメカニズム。
このメカニズムは、特定のシステムプロセス内のリスクをコンテキスト化する手段であり、緩和に不可欠である。
このフレームワークは、aiを媒介とするナレッジアクセスシステムの設計と展開に携わる実践者を支援し、労働者にもたらされるリスクを考慮し、これらのリスクをもたらす正確なシステムメカニズムを特定し、緩和にアプローチすることを目的としている。
今後、この枠組みを他の技術システムに適用し、労働者や他のグループの保護を促進する可能性がある。
関連論文リスト
- Prioritizing Safeguarding Over Autonomy: Risks of LLM Agents for Science [67.38554763406098]
大規模言語モデル(LLM)を利用したインテリジェントエージェントは、自律的な実験を行い、様々な分野にわたる科学的発見を促進する上で、大きな可能性を証明している。
彼らの能力は有望だが、安全を慎重に考慮する必要がある新たな脆弱性も導入している。
本稿では,科学領域におけるLSMをベースとしたエージェントの脆弱性の徹底的な調査を行い,その誤用に伴う潜在的なリスクに光を当て,安全性対策の必要性を強調した。
論文 参考訳(メタデータ) (2024-02-06T18:54:07Z) - A Cybersecurity Risk Analysis Framework for Systems with Artificial
Intelligence Components [0.0]
欧州連合人工知能法、NIST人工知能リスク管理フレームワーク、および関連する規範の導入は、人工知能コンポーネントを持つシステムを評価するために、新しいリスク分析アプローチをよりよく理解し実装することを要求する。
本稿では,このようなシステムの評価を支援するサイバーセキュリティリスク分析フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-03T09:06:39Z) - Liability regimes in the age of AI: a use-case driven analysis of the
burden of proof [1.7510020208193926]
人工知能(AI)を利用した新しいテクノロジーは、私たちの社会をより良く、破壊的に変革する可能性を秘めている。
しかし、安全と基本的権利の両方に潜在的なリスクをもたらす、これらの方法論の固有の特性に対する懸念が高まっている。
本稿では,これらの難易度を示す3つのケーススタディと,それらに到達するための方法論について述べる。
論文 参考訳(メタデータ) (2022-11-03T13:55:36Z) - The Risks of Machine Learning Systems [11.105884571838818]
システム全体のリスクは、その直接的および間接的な影響に影響される。
MLのリスク/インパクト評価のための既存のフレームワークは、しばしばリスクの抽象的な概念に対処する。
1次リスクはMLシステムの側面に起因するが、2次リスクは1次リスクの結果に起因する。
論文 参考訳(メタデータ) (2022-04-21T02:42:10Z) - A Framework for Institutional Risk Identification using Knowledge Graphs
and Automated News Profiling [5.631924211771643]
世界中の組織は、世界中の運用に影響を与えるさまざまなリスクに直面しています。
リスクが生まれる前に潜在的なリスクを検知し、評価する、堅牢なリスク識別プロセスを持つことが不可欠である。
論文 参考訳(メタデータ) (2021-09-19T11:06:12Z) - Multi Agent System for Machine Learning Under Uncertainty in Cyber
Physical Manufacturing System [78.60415450507706]
近年の予測機械学習の進歩は、製造における様々なユースケースに応用されている。
ほとんどの研究は、それに関連する不確実性に対処することなく予測精度を最大化することに焦点を当てた。
本稿では,機械学習における不確実性の原因を特定し,不確実性下での機械学習システムの成功基準を確立する。
論文 参考訳(メタデータ) (2021-07-28T10:28:05Z) - Towards Risk Modeling for Collaborative AI [5.941104748966331]
コラボレーティブaiシステムは、共通の目標を達成するために、共有空間で人間と協力することを目指している。
この設定は、人間を傷つける可能性のある接触により、潜在的に危険な状況を引き起こす。
協調型AIシステムに合わせたリスクモデリング手法を紹介します。
論文 参考訳(メタデータ) (2021-03-12T18:53:06Z) - Overcoming Failures of Imagination in AI Infused System Development and
Deployment [71.9309995623067]
NeurIPS 2020は研究論文に「潜在的な悪用と失敗の結果」に関するインパクトステートメントを含むよう要求した。
我々は、害の枠組みは文脈に適応し、潜在的な利害関係者、システム余裕、および最も広い意味での害を評価するための実行可能なプロキシを考える必要があると論じている。
論文 参考訳(メタデータ) (2020-11-26T18:09:52Z) - Dos and Don'ts of Machine Learning in Computer Security [74.1816306998445]
大きな可能性にもかかわらず、セキュリティにおける機械学習は、パフォーマンスを損なう微妙な落とし穴を引き起こす傾向がある。
我々は,学習ベースのセキュリティシステムの設計,実装,評価において共通の落とし穴を特定する。
我々は,落とし穴の回避や軽減を支援するために,研究者を支援するための実用的な勧告を提案する。
論文 参考訳(メタデータ) (2020-10-19T13:09:31Z) - Trustworthy AI Inference Systems: An Industry Research View [58.000323504158054]
我々は、信頼できるAI推論システムの設計、展開、運用にアプローチするための業界調査ビューを提供する。
信頼された実行環境を用いたAIシステムの機会と課題を強調します。
我々は,産業,アカデミック,政府研究者のグローバルな集団的注意を必要とする,さらなる発展の分野を概説する。
論文 参考訳(メタデータ) (2020-08-10T23:05:55Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。