論文の概要: A Framework for Exploring the Consequences of AI-Mediated Enterprise
Knowledge Access and Identifying Risks to Workers
- arxiv url: http://arxiv.org/abs/2312.10076v1
- Date: Fri, 8 Dec 2023 17:05:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-15 13:48:55.350980
- Title: A Framework for Exploring the Consequences of AI-Mediated Enterprise
Knowledge Access and Identifying Risks to Workers
- Title(参考訳): AIを利用した企業知識アクセスと労働者へのリスクの特定のためのフレームワーク
- Authors: Anna Gausen and Bhaskar Mitra and Si\^an Lindley
- Abstract要約: 本稿では、AIを利用した企業知識アクセスシステムから労働者のリスクを特定するためのConsequence-Mechanism-Riskフレームワークを提案する。
我々は、労働者に対するリスクを詳述した幅広い文献を執筆し、労働者の価値、力、幸福に対するリスクを分類した。
今後の作業は、この枠組みを他の技術システムに適用し、労働者や他のグループの保護を促進する可能性がある。
- 参考スコア(独自算出の注目度): 3.3096209174849824
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Organisations generate vast amounts of information, which has resulted in a
long-term research effort into knowledge access systems for enterprise
settings. Recent developments in artificial intelligence, in relation to large
language models, are poised to have significant impact on knowledge access.
This has the potential to shape the workplace and knowledge in new and
unanticipated ways. Many risks can arise from the deployment of these types of
AI systems, due to interactions between the technical system and organisational
power dynamics.
This paper presents the Consequence-Mechanism-Risk framework to identify
risks to workers from AI-mediated enterprise knowledge access systems. We have
drawn on wide-ranging literature detailing risks to workers, and categorised
risks as being to worker value, power, and wellbeing. The contribution of our
framework is to additionally consider (i) the consequences of these systems
that are of moral import: commodification, appropriation, concentration of
power, and marginalisation, and (ii) the mechanisms, which represent how these
consequences may take effect in the system. The mechanisms are a means of
contextualising risk within specific system processes, which is critical for
mitigation. This framework is aimed at helping practitioners involved in the
design and deployment of AI-mediated knowledge access systems to consider the
risks introduced to workers, identify the precise system mechanisms that
introduce those risks and begin to approach mitigation. Future work could apply
this framework to other technological systems to promote the protection of
workers and other groups.
- Abstract(参考訳): 組織は膨大な量の情報を生成し、エンタープライズ環境での知識アクセスシステムに関する長期的な研究に繋がった。
人工知能の最近の発展は、大きな言語モデルに関連して、知識アクセスに大きな影響を与えている。
これは、新しい予想外の方法で職場と知識を形成する可能性がある。
技術的システムと組織的パワーダイナミクスの相互作用によって、この種のAIシステムの展開によって、多くのリスクが発生する可能性がある。
本稿では、aiを媒介とする企業知識アクセスシステムから労働者のリスクを識別する、結果メカニズム・リスクフレームワークを提案する。
我々は、労働者に対するリスクを詳述した幅広い文献を作成し、労働者の価値、権力、幸福に関するリスクを分類した。
私たちのフレームワークの貢献は、さらに考慮することである
(i)道徳輸入であるこれらの制度の結果:コモディフィケーション、分配、権力集中、限界化
(ii)これらの結果がシステムにどのような影響を及ぼすかを示すメカニズム。
このメカニズムは、特定のシステムプロセス内のリスクをコンテキスト化する手段であり、緩和に不可欠である。
このフレームワークは、aiを媒介とするナレッジアクセスシステムの設計と展開に携わる実践者を支援し、労働者にもたらされるリスクを考慮し、これらのリスクをもたらす正確なシステムメカニズムを特定し、緩和にアプローチすることを目的としている。
今後、この枠組みを他の技術システムに適用し、労働者や他のグループの保護を促進する可能性がある。
関連論文リスト
- From Silos to Systems: Process-Oriented Hazard Analysis for AI Systems [2.226040060318401]
システム理論プロセス分析(STPA)をAIの操作と開発プロセスの解析に応用する。
我々は、機械学習アルゴリズムに依存したシステムと、3つのケーススタディに焦点をあてる。
私たちは、AIシステムに適したいくつかの適応があるにもかかわらず、anAを実行するための重要な概念とステップが容易に適用できることに気付きました。
論文 参考訳(メタデータ) (2024-10-29T20:43:18Z) - Beyond Accidents and Misuse: Decoding the Structural Risk Dynamics of Artificial Intelligence [0.0]
本稿では,社会・経済・政治システム間の高度AIシステムの迅速な統合に伴う構造的リスクの概念について考察する。
技術的進歩と社会的ダイナミクスの相互作用を分析することにより、構造リスクの3つの主要なカテゴリを分離する。
これらのリスクを駆動する因果連鎖を理解するための包括的枠組みを提示し、構造的力の相互依存と、誤用やシステム障害のより近親的なリスクを強調した。
論文 参考訳(メタデータ) (2024-06-21T05:44:50Z) - Responsible Reporting for Frontier AI Development [2.6591642690968067]
フロンティアAIシステムからのリスクを緩和するには、それらのシステムに関する最新かつ信頼性の高い情報が必要である。
フロンティアシステムの開発と展開を行う組織は、そのような情報にかなりのアクセス権を持つ。
政府、産業、市民社会のアクターに安全クリティカルな情報を報告することで、これらの組織はフロンティア・システムによって引き起こされる新しい新興のリスクに対する可視性を向上させることができる。
論文 参考訳(メタデータ) (2024-04-03T12:18:45Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - A Framework for Institutional Risk Identification using Knowledge Graphs
and Automated News Profiling [5.631924211771643]
世界中の組織は、世界中の運用に影響を与えるさまざまなリスクに直面しています。
リスクが生まれる前に潜在的なリスクを検知し、評価する、堅牢なリスク識別プロセスを持つことが不可欠である。
論文 参考訳(メタデータ) (2021-09-19T11:06:12Z) - Multi Agent System for Machine Learning Under Uncertainty in Cyber
Physical Manufacturing System [78.60415450507706]
近年の予測機械学習の進歩は、製造における様々なユースケースに応用されている。
ほとんどの研究は、それに関連する不確実性に対処することなく予測精度を最大化することに焦点を当てた。
本稿では,機械学習における不確実性の原因を特定し,不確実性下での機械学習システムの成功基準を確立する。
論文 参考訳(メタデータ) (2021-07-28T10:28:05Z) - Towards Risk Modeling for Collaborative AI [5.941104748966331]
コラボレーティブaiシステムは、共通の目標を達成するために、共有空間で人間と協力することを目指している。
この設定は、人間を傷つける可能性のある接触により、潜在的に危険な状況を引き起こす。
協調型AIシステムに合わせたリスクモデリング手法を紹介します。
論文 参考訳(メタデータ) (2021-03-12T18:53:06Z) - Overcoming Failures of Imagination in AI Infused System Development and
Deployment [71.9309995623067]
NeurIPS 2020は研究論文に「潜在的な悪用と失敗の結果」に関するインパクトステートメントを含むよう要求した。
我々は、害の枠組みは文脈に適応し、潜在的な利害関係者、システム余裕、および最も広い意味での害を評価するための実行可能なプロキシを考える必要があると論じている。
論文 参考訳(メタデータ) (2020-11-26T18:09:52Z) - Dos and Don'ts of Machine Learning in Computer Security [74.1816306998445]
大きな可能性にもかかわらず、セキュリティにおける機械学習は、パフォーマンスを損なう微妙な落とし穴を引き起こす傾向がある。
我々は,学習ベースのセキュリティシステムの設計,実装,評価において共通の落とし穴を特定する。
我々は,落とし穴の回避や軽減を支援するために,研究者を支援するための実用的な勧告を提案する。
論文 参考訳(メタデータ) (2020-10-19T13:09:31Z) - Trustworthy AI Inference Systems: An Industry Research View [58.000323504158054]
我々は、信頼できるAI推論システムの設計、展開、運用にアプローチするための業界調査ビューを提供する。
信頼された実行環境を用いたAIシステムの機会と課題を強調します。
我々は,産業,アカデミック,政府研究者のグローバルな集団的注意を必要とする,さらなる発展の分野を概説する。
論文 参考訳(メタデータ) (2020-08-10T23:05:55Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。