論文の概要: AI data transparency: an exploration through the lens of AI incidents
- arxiv url: http://arxiv.org/abs/2409.03307v1
- Date: Thu, 5 Sep 2024 07:23:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-06 21:20:12.522464
- Title: AI data transparency: an exploration through the lens of AI incidents
- Title(参考訳): AIデータ透明性:AIインシデントのレンズを通しての探索
- Authors: Sophia Worth, Ben Snaith, Arunav Das, Gefion Thuermer, Elena Simperl,
- Abstract要約: 本研究は、AIシステム内のデータプラクティスに関する公開ドキュメントが公衆の関心を喚起する状況について調査する。
我々は、AIシステムの多様性を考慮に入れた、AIデータの透明性を監視する体系的な方法を開発する必要性を強調します。
- 参考スコア(独自算出の注目度): 2.255682336735152
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Knowing more about the data used to build AI systems is critical for allowing different stakeholders to play their part in ensuring responsible and appropriate deployment and use. Meanwhile, a 2023 report shows that data transparency lags significantly behind other areas of AI transparency in popular foundation models. In this research, we sought to build on these findings, exploring the status of public documentation about data practices within AI systems generating public concern. Our findings demonstrate that low data transparency persists across a wide range of systems, and further that issues of transparency and explainability at model- and system- level create barriers for investigating data transparency information to address public concerns about AI systems. We highlight a need to develop systematic ways of monitoring AI data transparency that account for the diversity of AI system types, and for such efforts to build on further understanding of the needs of those both supplying and using data transparency information.
- Abstract(参考訳): AIシステム構築に使用されるデータについて知ることは、さまざまな利害関係者が責任と適切なデプロイメントと使用を確実にする役割を担えるようにする上で、非常に重要です。
一方、2023年のレポートでは、一般的なファンデーションモデルにおいて、データ透明性はAIの他の領域よりも大幅に遅れている。
本研究では,これらの知見に基づいて,AIシステム内のデータプラクティスに関する公開資料の公開状況を探究する。
さらに、モデルレベルとシステムレベルでの透明性と説明可能性の問題が、AIシステムに関する公的な懸念に対処するために、データの透明性情報を調べる障壁を生じさせることを示した。
我々は、AIシステムタイプの多様性を考慮した、AIデータ透明性の監視方法の体系的な開発の必要性を強調し、データ透明性情報の提供と使用の両方のニーズのさらなる理解の構築に努める。
関連論文リスト
- Through the Looking-Glass: Transparency Implications and Challenges in
Enterprise AI Knowledge Systems [3.7640559288894524]
視線ガラスのメタファーを提示し、それをAI知識システムを反射・歪曲するシステムとして概念化する。
我々は,AI知識システムの価値,すなわちシステム透過性,手続き的透明性,成果の透明性を実現するために必要な3つの透明性次元を同定する。
論文 参考訳(メタデータ) (2024-01-17T18:47:30Z) - Path To Gain Functional Transparency In Artificial Intelligence With
Meaningful Explainability [0.0]
AIシステムがますます高度化するにつれて、透明性と説明可能性の確保が重要になる。
透明なシステムにおけるユーザ中心のコンプライアンス・バイ・デザイン透過性の設計を提案する。
AIシステムにおける透明性に関連する課題を包括的に理解することで、説明責任、信頼性、社会的価値に整合したAIシステムの開発を促進することを目指している。
論文 参考訳(メタデータ) (2023-10-13T04:25:30Z) - Representation Engineering: A Top-Down Approach to AI Transparency [132.0398250233924]
表現工学の新たな領域(RepE)を特定し,特徴付ける
RepEは、神経細胞や回路ではなく、人口レベルの表現を解析の中心に置く。
これらの手法が、広範囲の安全関連問題に対してどのようにトラクションを提供するかを紹介する。
論文 参考訳(メタデータ) (2023-10-02T17:59:07Z) - Towards Cross-Provider Analysis of Transparency Information for Data
Protection [0.0]
本稿では,サービスプロバイダ間の大規模透明性情報分析を実現するための新しいアプローチを提案する。
我々は、高度な透明性情報分析のための一般的なアプローチ、オープンソースのアーキテクチャ、クエリ可能な分析プラットフォームという形での実装を提供する。
今後の作業は、私たちのコントリビューションに基づいて、隠れたデータ共有プラクティスに関する洞察を得ることができます。
論文 参考訳(メタデータ) (2023-09-01T10:36:09Z) - Users are the North Star for AI Transparency [111.5679109784322]
透明な人工知能システムを求める声が広まっているにもかかわらず、この用語は、厳密な政策の目的や具体的な研究ラインのオリエント化を表すために、多義的な意味に過大評価されている。
このことが起こる理由の1つは、AI透明性の明確な理想が、この仕事の体で実現されないことである。
透明性はユーザ中心で、ユーザ指向で、誠実です。
論文 参考訳(メタデータ) (2023-03-09T18:53:29Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Think About the Stakeholders First! Towards an Algorithmic Transparency
Playbook for Regulatory Compliance [14.043062659347427]
世界中の政府によって、公共および民間セクターに導入された人工知能(AI)システムを規制するための法律が提案され、可決されている。
これらの規則の多くは、AIシステムの透明性と、関連する市民意識の問題に対処している。
我々は,透明で規制に適合したシステムを設計する上で,技術者を支援する新たな利害関係者優先のアプローチを提案する。
論文 参考訳(メタデータ) (2022-06-10T09:39:00Z) - Trustworthy Transparency by Design [57.67333075002697]
本稿では,ユーザ信頼とエクスペリエンスに関する研究を取り入れた,ソフトウェア設計のための透明性フレームワークを提案する。
私たちのフレームワークは、その設計に透明性を取り入れたソフトウェアの開発を可能にします。
論文 参考訳(メタデータ) (2021-03-19T12:34:01Z) - A framework for fostering transparency in shared artificial intelligence
models by increasing visibility of contributions [0.6850683267295249]
本稿では,AIシステム生成に使用されるプロセスパイプラインの全体的透明性をランキングできる定量化指標を導出する新しい手法を提案する。
メトリクスを計算するための方法論と、システムへの貢献の可視性に関する判断に使用できる基準の種類を評価する。
論文 参考訳(メタデータ) (2021-03-05T11:28:50Z) - Dimensions of Transparency in NLP Applications [64.16277166331298]
aiシステムに関する記述とコミュニケーションに関する幅広い透明性が望ましいと考えられている。
以前の研究は、システムの透明性向上とユーザの混乱の間にトレードオフが存在することを示唆している。
論文 参考訳(メタデータ) (2021-01-02T11:46:17Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。