論文の概要: Dimensions of Transparency in NLP Applications
- arxiv url: http://arxiv.org/abs/2101.00433v1
- Date: Sat, 2 Jan 2021 11:46:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-13 07:21:41.961547
- Title: Dimensions of Transparency in NLP Applications
- Title(参考訳): NLP応用における透明性の次元
- Authors: Michael Saxon, Sharon Levy, Xinyi Wang, Alon Albalak, William Yang
Wang
- Abstract要約: aiシステムに関する記述とコミュニケーションに関する幅広い透明性が望ましいと考えられている。
以前の研究は、システムの透明性向上とユーザの混乱の間にトレードオフが存在することを示唆している。
- 参考スコア(独自算出の注目度): 64.16277166331298
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Broader transparency in descriptions of and communication regarding AI
systems is widely considered desirable. This is particularly the case in
discussions of fairness and accountability in systems exposed to the general
public. However, previous work has suggested that a trade-off exists between
greater system transparency and user confusion, where `too much information'
clouds a reader's understanding of what a system description means.
Unfortunately, transparency is a nebulous concept, difficult to both define and
quantify. In this work we address these two issues by proposing a framework for
quantifying transparency in system descriptions and apply it to analyze the
trade-off between transparency and end-user confusion using NLP conference
abstracts.
- Abstract(参考訳): aiシステムに関する記述とコミュニケーションに関する幅広い透明性が望ましいと考えられている。
これは、一般に公開されているシステムにおける公平性と説明責任に関する議論において特に当てはまる。
しかし、以前の研究は、システムの透明性向上とユーザの混乱の間にトレードオフが存在することを示唆している。
残念ながら、透明性は曖昧な概念であり、定義と定量化が難しい。
本稿では,システム記述の透明性を定量化するためのフレームワークを提案し,nlpカンファレンスの要約を用いて,透明性とエンドユーザの混乱のトレードオフを分析する。
関連論文リスト
- AI data transparency: an exploration through the lens of AI incidents [2.255682336735152]
本研究は、AIシステム内のデータプラクティスに関する公開ドキュメントが公衆の関心を喚起する状況について調査する。
我々は、AIシステムの多様性を考慮に入れた、AIデータの透明性を監視する体系的な方法を開発する必要性を強調します。
論文 参考訳(メタデータ) (2024-09-05T07:23:30Z) - Algorithmic Transparency and Participation through the Handoff Lens: Lessons Learned from the U.S. Census Bureau's Adoption of Differential Privacy [1.999925939110439]
我々は、2020年国勢調査のための情報開示回避システムにおいて、米国国勢調査局による差分プライバシーの採用について検討する。
このケーススタディは、技術的なシフトが価値をどう意味するかについての理解を深めようとしている。
このケーススタディから,アルゴリズムの透明性と参加に関する理解を深めるための3つの教訓を提示する。
論文 参考訳(メタデータ) (2024-05-29T15:29:16Z) - Through the Looking-Glass: Transparency Implications and Challenges in
Enterprise AI Knowledge Systems [3.7640559288894524]
視線ガラスのメタファーを提示し、それをAI知識システムを反射・歪曲するシステムとして概念化する。
我々は,AI知識システムの価値,すなわちシステム透過性,手続き的透明性,成果の透明性を実現するために必要な3つの透明性次元を同定する。
論文 参考訳(メタデータ) (2024-01-17T18:47:30Z) - Users are the North Star for AI Transparency [111.5679109784322]
透明な人工知能システムを求める声が広まっているにもかかわらず、この用語は、厳密な政策の目的や具体的な研究ラインのオリエント化を表すために、多義的な意味に過大評価されている。
このことが起こる理由の1つは、AI透明性の明確な理想が、この仕事の体で実現されないことである。
透明性はユーザ中心で、ユーザ指向で、誠実です。
論文 参考訳(メタデータ) (2023-03-09T18:53:29Z) - Bridging the Transparency Gap: What Can Explainable AI Learn From the AI
Act? [0.8287206589886881]
欧州連合は、AIシステムの透明性に関する詳細な要件を導入している。
XAIと透明性に関する法律には根本的な違いがある。
XAIと規制の異なる見解を比較することで、実践的な作業が透明性のギャップを埋める可能性のある4つの軸に到達します。
論文 参考訳(メタデータ) (2023-02-21T16:06:48Z) - FAT Forensics: A Python Toolbox for Implementing and Deploying Fairness,
Accountability and Transparency Algorithms in Predictive Systems [69.24490096929709]
FAT ForensicsというオープンソースのPythonパッケージを開発しました。
予測アルゴリズムの重要な公平性、説明可能性、透明性を検査することができる。
私たちのツールボックスは、予測パイプラインのすべての要素を評価することができます。
論文 参考訳(メタデータ) (2022-09-08T13:25:02Z) - "Why Here and Not There?" -- Diverse Contrasting Explanations of
Dimensionality Reduction [75.97774982432976]
本稿では,次元削減のためのコントラスト説明の概念を紹介する。
本稿では,この概念を二次元データ可視化の具体的応用に適用する。
論文 参考訳(メタデータ) (2022-06-15T08:54:39Z) - Trustworthy Transparency by Design [57.67333075002697]
本稿では,ユーザ信頼とエクスペリエンスに関する研究を取り入れた,ソフトウェア設計のための透明性フレームワークを提案する。
私たちのフレームワークは、その設計に透明性を取り入れたソフトウェアの開発を可能にします。
論文 参考訳(メタデータ) (2021-03-19T12:34:01Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。