論文の概要: Making Transparency Advocates: An Educational Approach Towards Better Algorithmic Transparency in Practice
- arxiv url: http://arxiv.org/abs/2412.15363v1
- Date: Thu, 19 Dec 2024 19:49:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-23 16:24:27.379447
- Title: Making Transparency Advocates: An Educational Approach Towards Better Algorithmic Transparency in Practice
- Title(参考訳): 透明性を擁護する - アルゴリズムの透明性向上に向けた教育的アプローチ-
- Authors: Andrew Bell, Julia Stoyanovich,
- Abstract要約: 人工知能(AI)によって引き起こされるリスクと害に関する懸念は、アルゴリズムの透明性について大きな研究結果をもたらしている。
XAIにおける10年の開発にもかかわらず、研究の進歩はアルゴリズムの透明性の実装に完全には翻訳されていない。
透明性の擁護者を作成することによって、この問題に対処するためのアプローチをテストします。
- 参考スコア(独自算出の注目度): 10.466781527359698
- License:
- Abstract: Concerns about the risks and harms posed by artificial intelligence (AI) have resulted in significant study into algorithmic transparency, giving rise to a sub-field known as Explainable AI (XAI). Unfortunately, despite a decade of development in XAI, an existential challenge remains: progress in research has not been fully translated into the actual implementation of algorithmic transparency by organizations. In this work, we test an approach for addressing the challenge by creating transparency advocates, or motivated individuals within organizations who drive a ground-up cultural shift towards improved algorithmic transparency. Over several years, we created an open-source educational workshop on algorithmic transparency and advocacy. We delivered the workshop to professionals across two separate domains to improve their algorithmic transparency literacy and willingness to advocate for change. In the weeks following the workshop, participants applied what they learned, such as speaking up for algorithmic transparency at an organization-wide AI strategy meeting. We also make two broader observations: first, advocacy is not a monolith and can be broken down into different levels. Second, individuals' willingness for advocacy is affected by their professional field. For example, news and media professionals may be more likely to advocate for algorithmic transparency than those working at technology start-ups.
- Abstract(参考訳): 人工知能(AI)がもたらすリスクと害に関する懸念は、アルゴリズムの透明性に大きな研究をもたらし、説明可能なAI(XAI)と呼ばれるサブフィールドが誕生した。
残念なことに、XAIで10年の開発にもかかわらず、既存の課題が残っている。研究の進歩は、組織によるアルゴリズム的透明性の実際の実装に完全には翻訳されていない。
本研究では,アルゴリズムの透明性向上に向けた文化的変化を根本から推進する組織内の透明性擁護者やモチベーションを持った個人を作成することによって,課題に対処するためのアプローチをテストする。
数年にわたって、アルゴリズムの透明性と擁護に関するオープンソースの教育ワークショップを作りました。
私たちはこのワークショップを2つの異なるドメインのプロフェッショナルに提供し、アルゴリズムによる透明性のリテラシーを改善し、変革を提唱しました。
ワークショップの数週間後、参加者は、組織全体のAI戦略会議でアルゴリズムの透明性について話すなど、学んだことを適用した。
まず、擁護はモノリスではなく、異なるレベルに分けられる可能性がある。
第二に、個人が擁護する意志は、その専門分野に影響される。
例えば、ニュースやメディアの専門家は、テクノロジースタートアップで働く人よりも、アルゴリズムによる透明性を主張する傾向にある。
関連論文リスト
- The Pitfalls of "Security by Obscurity" And What They Mean for Transparent AI [4.627627425427264]
透明性のメリットに関するセキュリティコミュニティの視点では,3つの重要なテーマを特定します。
次に、匿名化研究のサブフィールドを透明性がいかに形成したかについてのケーススタディの議論を行う。
論文 参考訳(メタデータ) (2025-01-30T17:04:35Z) - Participatory Approaches in AI Development and Governance: Case Studies [9.824305892501686]
本稿では、AI開発と展開への参加的アプローチの価値に関する2部シリーズの第2部を構成する。
最初の論文は、この2つの演習で参加的手法を展開するための、原則と実践的な正当化を考案した。
本稿では、これらの予備的な結論を、法と秩序の覚醒における顔認識技術の使用と、医療分野における大規模言語モデルの使用の2つの分野で検証する。
論文 参考訳(メタデータ) (2024-06-03T10:10:23Z) - Algorithmic Transparency and Participation through the Handoff Lens: Lessons Learned from the U.S. Census Bureau's Adoption of Differential Privacy [1.999925939110439]
我々は、2020年国勢調査のための情報開示回避システムにおいて、米国国勢調査局による差分プライバシーの採用について検討する。
このケーススタディは、技術的なシフトが価値をどう意味するかについての理解を深めようとしている。
このケーススタディから,アルゴリズムの透明性と参加に関する理解を深めるための3つの教訓を提示する。
論文 参考訳(メタデータ) (2024-05-29T15:29:16Z) - Representation Engineering: A Top-Down Approach to AI Transparency [132.0398250233924]
表現工学の新たな領域(RepE)を特定し,特徴付ける
RepEは、神経細胞や回路ではなく、人口レベルの表現を解析の中心に置く。
これらの手法が、広範囲の安全関連問題に対してどのようにトラクションを提供するかを紹介する。
論文 参考訳(メタデータ) (2023-10-02T17:59:07Z) - AI Transparency in the Age of LLMs: A Human-Centered Research Roadmap [46.98582021477066]
強力な大規模言語モデル(LLM)の台頭は、イノベーションの絶大な機会をもたらすだけでなく、個人や社会全体のリスクを悪化させます。
我々は LLM と LLM を注入したアプリケーションの開発とデプロイを責任を持って行うための重要な瞬間に到達した。
LLMの透明性を提供するための新しいアプローチを追求することが最重要である。
論文 参考訳(メタデータ) (2023-06-02T22:51:26Z) - Rethinking People Analytics With Inverse Transparency by Design [57.67333075002697]
我々は、デザインによる逆透過性(inverse transparency)と呼ぶ、労働分析のための新しい設計手法を提案する。
アーキテクチャの変更はコア機能を阻害することなく行われます。
我々は、デザインによる逆透明性は、受け入れられ、責任ある人々の分析を実現するための有望なアプローチである、と結論付けている。
論文 参考訳(メタデータ) (2023-05-16T21:37:35Z) - Users are the North Star for AI Transparency [111.5679109784322]
透明な人工知能システムを求める声が広まっているにもかかわらず、この用語は、厳密な政策の目的や具体的な研究ラインのオリエント化を表すために、多義的な意味に過大評価されている。
このことが起こる理由の1つは、AI透明性の明確な理想が、この仕事の体で実現されないことである。
透明性はユーザ中心で、ユーザ指向で、誠実です。
論文 参考訳(メタデータ) (2023-03-09T18:53:29Z) - Bridging the Transparency Gap: What Can Explainable AI Learn From the AI
Act? [0.8287206589886881]
欧州連合は、AIシステムの透明性に関する詳細な要件を導入している。
XAIと透明性に関する法律には根本的な違いがある。
XAIと規制の異なる見解を比較することで、実践的な作業が透明性のギャップを埋める可能性のある4つの軸に到達します。
論文 参考訳(メタデータ) (2023-02-21T16:06:48Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Think About the Stakeholders First! Towards an Algorithmic Transparency
Playbook for Regulatory Compliance [14.043062659347427]
世界中の政府によって、公共および民間セクターに導入された人工知能(AI)システムを規制するための法律が提案され、可決されている。
これらの規則の多くは、AIシステムの透明性と、関連する市民意識の問題に対処している。
我々は,透明で規制に適合したシステムを設計する上で,技術者を支援する新たな利害関係者優先のアプローチを提案する。
論文 参考訳(メタデータ) (2022-06-10T09:39:00Z) - Machine Learning Explanations to Prevent Overtrust in Fake News
Detection [64.46876057393703]
本研究では、ニュースレビュープラットフォームに組み込んだ説明可能なAIアシスタントが、フェイクニュースの拡散と戦う効果について検討する。
我々は、ニュースレビューと共有インターフェースを設計し、ニュース記事のデータセットを作成し、4つの解釈可能なフェイクニュース検出アルゴリズムを訓練する。
説明可能なAIシステムについてより深く理解するために、説明プロセスにおけるユーザエンゲージメント、メンタルモデル、信頼、パフォーマンス対策の相互作用について議論する。
論文 参考訳(メタデータ) (2020-07-24T05:42:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。