論文の概要: Through the Looking-Glass: Transparency Implications and Challenges in
Enterprise AI Knowledge Systems
- arxiv url: http://arxiv.org/abs/2401.09410v1
- Date: Wed, 17 Jan 2024 18:47:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-18 15:02:21.832686
- Title: Through the Looking-Glass: Transparency Implications and Challenges in
Enterprise AI Knowledge Systems
- Title(参考訳): 展望ガラスを通して:エンタープライズAI知識システムにおける透明性含意と課題
- Authors: Karina Corti\~nas-Lorenzo, Si\^an Lindley, Ida Larsen-Ledet and
Bhaskar Mitra
- Abstract要約: 視線ガラスのメタファーを提示し、それをAI知識システムを反射・歪曲するシステムとして概念化する。
我々は,AI知識システムの価値,すなわちシステム透過性,手続き的透明性,成果の透明性を実現するために必要な3つの透明性次元を同定する。
- 参考スコア(独自算出の注目度): 3.7640559288894524
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge can't be disentangled from people. As AI knowledge systems mine
vast volumes of work-related data, the knowledge that's being extracted and
surfaced is intrinsically linked to the people who create and use it. When
these systems get embedded in organizational settings, the information that is
brought to the foreground and the information that's pushed to the periphery
can influence how individuals see each other and how they see themselves at
work. In this paper, we present the looking-glass metaphor and use it to
conceptualize AI knowledge systems as systems that reflect and distort,
expanding our view on transparency requirements, implications and challenges.
We formulate transparency as a key mediator in shaping different ways of
seeing, including seeing into the system, which unveils its capabilities,
limitations and behavior, and seeing through the system, which shapes workers'
perceptions of their own contributions and others within the organization.
Recognizing the sociotechnical nature of these systems, we identify three
transparency dimensions necessary to realize the value of AI knowledge systems,
namely system transparency, procedural transparency and transparency of
outcomes. We discuss key challenges hindering the implementation of these forms
of transparency, bringing to light the wider sociotechnical gap and
highlighting directions for future Computer-supported Cooperative Work (CSCW)
research.
- Abstract(参考訳): 知識は人から引き離すことはできない。
aiの知識システムが大量の仕事関連のデータを発掘するにつれ、抽出され、表面化される知識は、それを作成したり使ったりする人々と本質的に結びついています。
これらのシステムが組織的な設定に埋め込まれると、フォアグラウンドに持ち込まれた情報と、周辺にプッシュされた情報は、個人がお互いを見る方法や、職場で自分自身を見る方法に影響を与えます。
本稿では、外観ガラスのメタファーを提示し、AI知識システムを反射・歪曲するシステムとして概念化し、透明性要件、含意、課題に対する私たちの見解を広げる。
透明性は、システムの能力、限界、行動を明らかにするシステムや、システムを通して労働者の自身の貢献や組織内の他者に対する認識を形作るシステムなど、さまざまな見方を形作る上で重要な仲介者として定式化します。
これらのシステムの社会学的性質を認識し,ai知識システムの価値を実現するために必要な3つの透明性次元,すなわちシステムの透明性,手続き的透明性,成果の透明性を明らかにする。
我々は,これらの形態の透明性の実現を妨げる重要な課題について論じ,社会技術的ギャップの拡大と今後のコンピュータ支援協同作業(CSCW)研究の方向性を明らかにする。
関連論文リスト
- AI data transparency: an exploration through the lens of AI incidents [2.255682336735152]
本研究は、AIシステム内のデータプラクティスに関する公開ドキュメントが公衆の関心を喚起する状況について調査する。
我々は、AIシステムの多様性を考慮に入れた、AIデータの透明性を監視する体系的な方法を開発する必要性を強調します。
論文 参考訳(メタデータ) (2024-09-05T07:23:30Z) - Visual Knowledge in the Big Model Era: Retrospect and Prospect [63.282425615863]
視覚知識は、視覚概念とその関係を簡潔で包括的で解釈可能な方法でカプセル化できる新しい知識表現である。
視覚世界に関する知識は、人間の認知と知性にとって欠かせない要素として認識されているため、視覚知識は、機械知性を確立する上で重要な役割を担っていると考えられる。
論文 参考訳(メタデータ) (2024-04-05T07:31:24Z) - Path To Gain Functional Transparency In Artificial Intelligence With
Meaningful Explainability [0.0]
AIシステムがますます高度化するにつれて、透明性と説明可能性の確保が重要になる。
透明なシステムにおけるユーザ中心のコンプライアンス・バイ・デザイン透過性の設計を提案する。
AIシステムにおける透明性に関連する課題を包括的に理解することで、説明責任、信頼性、社会的価値に整合したAIシステムの開発を促進することを目指している。
論文 参考訳(メタデータ) (2023-10-13T04:25:30Z) - Representation Engineering: A Top-Down Approach to AI Transparency [132.0398250233924]
表現工学の新たな領域(RepE)を特定し,特徴付ける
RepEは、神経細胞や回路ではなく、人口レベルの表現を解析の中心に置く。
これらの手法が、広範囲の安全関連問題に対してどのようにトラクションを提供するかを紹介する。
論文 参考訳(メタデータ) (2023-10-02T17:59:07Z) - Users are the North Star for AI Transparency [111.5679109784322]
透明な人工知能システムを求める声が広まっているにもかかわらず、この用語は、厳密な政策の目的や具体的な研究ラインのオリエント化を表すために、多義的な意味に過大評価されている。
このことが起こる理由の1つは、AI透明性の明確な理想が、この仕事の体で実現されないことである。
透明性はユーザ中心で、ユーザ指向で、誠実です。
論文 参考訳(メタデータ) (2023-03-09T18:53:29Z) - Painting the black box white: experimental findings from applying XAI to
an ECG reading setting [0.13124513975412253]
シンボリックAIシステムからブラックボックス、サブシンボリック、統計システムへの移行は、説明可能なAI(XAI)への関心の急激な増加を動機付けている。
我々は,ユーザによる説明・XAIシステムに対する認識の認知次元に着目した。
論文 参考訳(メタデータ) (2022-10-27T07:47:50Z) - Think About the Stakeholders First! Towards an Algorithmic Transparency
Playbook for Regulatory Compliance [14.043062659347427]
世界中の政府によって、公共および民間セクターに導入された人工知能(AI)システムを規制するための法律が提案され、可決されている。
これらの規則の多くは、AIシステムの透明性と、関連する市民意識の問題に対処している。
我々は,透明で規制に適合したシステムを設計する上で,技術者を支援する新たな利害関係者優先のアプローチを提案する。
論文 参考訳(メタデータ) (2022-06-10T09:39:00Z) - Adaptive cognitive fit: Artificial intelligence augmented management of
information facets and representations [62.997667081978825]
ビッグデータ技術と人工知能(AI)応用の爆発的な成長は、情報ファセットの普及に繋がった。
等角性や正確性などの情報フェートは、情報に対する人間の認識を支配的かつ著しく左右する。
認知の限界を克服するために情報表現を適応できる人工知能技術が必要であることを示唆する。
論文 参考訳(メタデータ) (2022-04-25T02:47:25Z) - Dimensions of Transparency in NLP Applications [64.16277166331298]
aiシステムに関する記述とコミュニケーションに関する幅広い透明性が望ましいと考えられている。
以前の研究は、システムの透明性向上とユーザの混乱の間にトレードオフが存在することを示唆している。
論文 参考訳(メタデータ) (2021-01-02T11:46:17Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z) - Applying Transparency in Artificial Intelligence based Personalization
Systems [5.671950073691286]
透明性の向上はパーソナライズベースのシステムにとって重要な目標である。
我々は、技術倫理とコンピュータ科学からの洞察を組み合わせて、機械生成のパーソナライゼーションのための透明性のベストプラクティスのリストを作成します。
これらのベストプラクティスに基づいて,アルゴリズムシステムの透明性を評価し,向上したいと考える設計者が使用するチェックリストを開発した。
論文 参考訳(メタデータ) (2020-04-02T11:07:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。