論文の概要: Users are the North Star for AI Transparency
- arxiv url: http://arxiv.org/abs/2303.05500v1
- Date: Thu, 9 Mar 2023 18:53:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-10 13:26:27.807666
- Title: Users are the North Star for AI Transparency
- Title(参考訳): ユーザーはAIの透明性のためのノーススター
- Authors: Alex Mei, Michael Saxon, Shiyu Chang, Zachary C. Lipton, William Yang
Wang
- Abstract要約: 透明な人工知能システムを求める声が広まっているにもかかわらず、この用語は、厳密な政策の目的や具体的な研究ラインのオリエント化を表すために、多義的な意味に過大評価されている。
このことが起こる理由の1つは、AI透明性の明確な理想が、この仕事の体で実現されないことである。
透明性はユーザ中心で、ユーザ指向で、誠実です。
- 参考スコア(独自算出の注目度): 111.5679109784322
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite widespread calls for transparent artificial intelligence systems, the
term is too overburdened with disparate meanings to express precise policy aims
or to orient concrete lines of research. Consequently, stakeholders often talk
past each other, with policymakers expressing vague demands and practitioners
devising solutions that may not address the underlying concerns. Part of why
this happens is that a clear ideal of AI transparency goes unsaid in this body
of work. We explicitly name such a north star -- transparency that is
user-centered, user-appropriate, and honest. We conduct a broad literature
survey, identifying many clusters of similar conceptions of transparency, tying
each back to our north star with analysis of how it furthers or hinders our
ideal AI transparency goals. We conclude with a discussion on common threads
across all the clusters, to provide clearer common language whereby
policymakers, stakeholders, and practitioners can communicate concrete demands
and deliver appropriate solutions. We hope for future work on AI transparency
that further advances confident, user-beneficial goals and provides clarity to
regulators and developers alike.
- Abstract(参考訳): 透明な人工知能システムを求める声が広まってはいるが、この用語には明確な政策目標や具体的な研究方針を示すために、さまざまな意味がある。
その結果、ステークホルダーは互いに話し合うことが多く、政策立案者はあいまいな要求を表明し、実践者は根底にある懸念に対処しないソリューションを考案する。
このことが起こる理由の1つは、AI透明性の明確な理想が、この仕事の体で実現されないことである。
このようなノーススターを明示的に命名します -- 透過性はユーザ中心で、ユーザ向きで、正直です。
私たちは幅広い文献調査を行い、同様の透明性の概念の集合を多数特定し、それらを北の星に結び付けて、理想的なAI透明性の目標をどう進めるか、あるいは妨げるかを分析します。
すべてのクラスタにわたる共通スレッドに関する議論を締めくくり、政策立案者、利害関係者、実践者が具体的な要求を伝え、適切なソリューションを提供できるより明確な共通言語を提供する。
AIの透明性に関する今後の取り組みは、信頼性とユーザ利益の目標をさらに進め、規制当局や開発者にも明確性を提供することを期待しています。
関連論文リスト
- Building Trustworthy AI: Transparent AI Systems via Large Language Models, Ontologies, and Logical Reasoning (TranspNet) [0.7420433640907689]
AIにおける透明性の欠如、特に医療や金融といった高度な分野での懸念が高まっているため、説明可能な信頼性の高いシステムの必要性が高まっている。
そこで本研究では,シンボルAIと大規模言語モデルを統合したTranspNetパイプラインを提案する。
論文 参考訳(メタデータ) (2024-11-13T09:40:37Z) - Enhancing transparency in AI-powered customer engagement [0.0]
本稿では、AIを活用した顧客エンゲージメントに対する消費者信頼を構築する上での重要な課題について論じる。
AIがビジネスオペレーションに革命をもたらす可能性にもかかわらず、誤った情報やAI意思決定プロセスの不透明性に対する広範な懸念は、信頼を損なう。
透明性と説明可能性に対する全体論的アプローチを採用することで、企業はAIテクノロジへの信頼を育むことができる。
論文 参考訳(メタデータ) (2024-09-13T20:26:11Z) - Representation Engineering: A Top-Down Approach to AI Transparency [132.0398250233924]
表現工学の新たな領域(RepE)を特定し,特徴付ける
RepEは、神経細胞や回路ではなく、人口レベルの表現を解析の中心に置く。
これらの手法が、広範囲の安全関連問題に対してどのようにトラクションを提供するかを紹介する。
論文 参考訳(メタデータ) (2023-10-02T17:59:07Z) - AI Transparency in the Age of LLMs: A Human-Centered Research Roadmap [46.98582021477066]
強力な大規模言語モデル(LLM)の台頭は、イノベーションの絶大な機会をもたらすだけでなく、個人や社会全体のリスクを悪化させます。
我々は LLM と LLM を注入したアプリケーションの開発とデプロイを責任を持って行うための重要な瞬間に到達した。
LLMの透明性を提供するための新しいアプローチを追求することが最重要である。
論文 参考訳(メタデータ) (2023-06-02T22:51:26Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Think About the Stakeholders First! Towards an Algorithmic Transparency
Playbook for Regulatory Compliance [14.043062659347427]
世界中の政府によって、公共および民間セクターに導入された人工知能(AI)システムを規制するための法律が提案され、可決されている。
これらの規則の多くは、AIシステムの透明性と、関連する市民意識の問題に対処している。
我々は,透明で規制に適合したシステムを設計する上で,技術者を支援する新たな利害関係者優先のアプローチを提案する。
論文 参考訳(メタデータ) (2022-06-10T09:39:00Z) - Designing for Responsible Trust in AI Systems: A Communication
Perspective [56.80107647520364]
我々は、MATCHと呼ばれる概念モデルを開発するために、技術に対する信頼に関するコミュニケーション理論と文献から引き出す。
私たちは、AIシステムの能力として透明性とインタラクションを強調します。
我々は、技術クリエーターが使用する適切な方法を特定するのに役立つ要件のチェックリストを提案する。
論文 参考訳(メタデータ) (2022-04-29T00:14:33Z) - Dimensions of Transparency in NLP Applications [64.16277166331298]
aiシステムに関する記述とコミュニケーションに関する幅広い透明性が望ましいと考えられている。
以前の研究は、システムの透明性向上とユーザの混乱の間にトレードオフが存在することを示唆している。
論文 参考訳(メタデータ) (2021-01-02T11:46:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。