論文の概要: Farsight: Fostering Responsible AI Awareness During AI Application Prototyping
- arxiv url: http://arxiv.org/abs/2402.15350v2
- Date: Tue, 2 Jul 2024 06:12:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-04 07:39:17.799521
- Title: Farsight: Fostering Responsible AI Awareness During AI Application Prototyping
- Title(参考訳): Farsight:AIアプリケーションのプロトタイピング中に、責任を負うAIの認識を育む
- Authors: Zijie J. Wang, Chinmay Kulkarni, Lauren Wilcox, Michael Terry, Michael Madaio,
- Abstract要約: 私たちはFarsightという、プロトタイピング中のAIアプリケーションから潜在的な害を識別する新しい対話型ツールを紹介します。
ユーザのプロンプトに基づいて、Farsightは関連するAIインシデントに関するニュース記事を強調し、LLM生成したユースケースやステークホルダ、障害を調査、編集することを可能にする。
10人のAIプロトタイプを用いた共同設計研究と42人のAIプロトタイプを用いたユーザスタディから得られた知見を報告する。
- 参考スコア(独自算出の注目度): 32.235398722593544
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Prompt-based interfaces for Large Language Models (LLMs) have made prototyping and building AI-powered applications easier than ever before. However, identifying potential harms that may arise from AI applications remains a challenge, particularly during prompt-based prototyping. To address this, we present Farsight, a novel in situ interactive tool that helps people identify potential harms from the AI applications they are prototyping. Based on a user's prompt, Farsight highlights news articles about relevant AI incidents and allows users to explore and edit LLM-generated use cases, stakeholders, and harms. We report design insights from a co-design study with 10 AI prototypers and findings from a user study with 42 AI prototypers. After using Farsight, AI prototypers in our user study are better able to independently identify potential harms associated with a prompt and find our tool more useful and usable than existing resources. Their qualitative feedback also highlights that Farsight encourages them to focus on end-users and think beyond immediate harms. We discuss these findings and reflect on their implications for designing AI prototyping experiences that meaningfully engage with AI harms. Farsight is publicly accessible at: https://PAIR-code.github.io/farsight.
- Abstract(参考訳): LLM(Large Language Models)のためのプロンプトベースのインターフェイスは、AIを使ったアプリケーションのプロトタイピングと構築をこれまで以上に容易にした。
しかし、AIアプリケーションから生じる潜在的な害を特定することは、特にプロトタイピングのプロトタイピングにおいて、依然として課題である。
この問題を解決するために、私たちはFarsightというインタラクティブなツールを紹介します。
ユーザのプロンプトに基づいて、Farsightは関連するAIインシデントに関するニュース記事を強調し、LLM生成されたユースケースやステークホルダ、障害を調査、編集することを可能にする。
10人のAIプロトタイプを用いた共同設計研究と42人のAIプロトタイプを用いたユーザスタディから得られた知見を報告する。
Farsightを使用した後、私たちのユーザー研究におけるAIプロトタイプは、プロンプトに関連する潜在的な害を独立して識別し、既存のリソースよりも便利なツールを見つけることができます。
質的なフィードバックは、Farsightがエンドユーザに注力し、直接的な害以上の考えを推奨していることも強調している。
これらの知見を議論し、AI害に有意義に関与するAIプロトタイピング体験を設計する上でのそれらの意味を反映する。
Farsightは、https://PAIR-code.github.io/farsight.comで公開されている。
関連論文リスト
- Survey of User Interface Design and Interaction Techniques in Generative AI Applications [79.55963742878684]
我々は,デザイナやディベロッパの参照として使用できる,さまざまなユーザインタラクションパターンのコンペレーションを作ることを目指している。
また、生成AIアプリケーションの設計についてもっと学ぼうとする人たちの参入障壁を低くしようと努力しています。
論文 参考訳(メタデータ) (2024-10-28T23:10:06Z) - Not Just Novelty: A Longitudinal Study on Utility and Customization of an AI Workflow [18.15979295351043]
ジェネレーティブAIは、日々のタスクで人々を助ける、斬新で印象的な能力を提供します。
新規性が低下した後、生成AIがどれほど有用かは定かではない。
我々は,科学コミュニケーションのための生成AIツールの慣れ親しみとカスタマイズを理解するために,12人のユーザを対象に3週間の縦断的研究を行った。
論文 参考訳(メタデータ) (2024-02-15T11:39:11Z) - Exploration with Principles for Diverse AI Supervision [88.61687950039662]
次世代の予測を用いた大規模トランスフォーマーのトレーニングは、AIの画期的な進歩を生み出した。
この生成AIアプローチは印象的な結果をもたらしたが、人間の監督に大きく依存している。
この人間の監視への強い依存は、AIイノベーションの進歩に重大なハードルをもたらす。
本稿では,高品質なトレーニングデータを自律的に生成することを目的とした,探索型AI(EAI)という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-10-13T07:03:39Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Towards Responsible AI: A Design Space Exploration of Human-Centered
Artificial Intelligence User Interfaces to Investigate Fairness [4.40401067183266]
AIの公正性を調べるために、データサイエンティストとドメインエキスパートを支援するデザインスペース探索を提供する。
ローンのアプリケーションを例として、私たちは、ローンの担当者やデータサイエンティストと一連のワークショップを開催しました。
これらの要件をFairHILにインスタンス化し、このUIを他のユースケースに一般化する方法を説明した。
論文 参考訳(メタデータ) (2022-06-01T13:08:37Z) - Towards Involving End-users in Interactive Human-in-the-loop AI Fairness [1.889930012459365]
人工知能(AI)における公正性の確保は、遠縁な応用においてバイアスや差別に対処するために重要である。
最近の研究は、人間が公正さを判断する方法と、AIモデルを公平にするために機械学習の専門家(ML)をサポートする方法について調査し始めている。
我々の研究は、通常のエンドユーザが潜在的公正性の問題を特定することができる、解釈可能でインタラクティブなヒューマン・イン・ザ・ループ・インタフェースの設計について検討している。
論文 参考訳(メタデータ) (2022-04-22T02:24:11Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Structured access to AI capabilities: an emerging paradigm for safe AI
deployment [0.0]
AIシステムをオープンに普及させる代わりに、開発者はAIシステムとの制御された腕の長さのインタラクションを促進する。
Aimは、危険なAI能力が広くアクセスされることを防ぐと同時に、安全に使用できるAI機能へのアクセスを保護することを目的としている。
論文 参考訳(メタデータ) (2022-01-13T19:30:16Z) - Artificial Intelligence for UAV-enabled Wireless Networks: A Survey [72.10851256475742]
無人航空機(UAV)は次世代無線通信ネットワークにおいて有望な技術であると考えられている。
人工知能(AI)は近年急速に成長し、成功している。
UAVベースのネットワークにおけるAIの潜在的な応用について概観する。
論文 参考訳(メタデータ) (2020-09-24T07:11:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。