論文の概要: AI Usage Cards: Responsibly Reporting AI-generated Content
- arxiv url: http://arxiv.org/abs/2303.03886v2
- Date: Tue, 9 May 2023 15:11:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-10 15:47:39.890094
- Title: AI Usage Cards: Responsibly Reporting AI-generated Content
- Title(参考訳): AI利用カード: 責任を持ってAI生成コンテンツを報告する
- Authors: Jan Philip Wahle and Terry Ruas and Saif M. Mohammad and Norman
Meuschke and Bela Gipp
- Abstract要約: ChatGPTのようなAIシステムが、人間による作業と区別できないコンテンツを生成できることを考えると、この技術の責任を負うことが懸念される。
我々は、AIの責任ある使用を定義するために、透明性、完全性、説明責任からなる3次元モデルを提案する。
第2に、科学研究におけるAIの使用を報告するための標準化された方法である「AI Usage Cards」を紹介する。
- 参考スコア(独自算出の注目度): 25.848910414962337
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Given AI systems like ChatGPT can generate content that is indistinguishable
from human-made work, the responsible use of this technology is a growing
concern. Although understanding the benefits and harms of using AI systems
requires more time, their rapid and indiscriminate adoption in practice is a
reality. Currently, we lack a common framework and language to define and
report the responsible use of AI for content generation. Prior work proposed
guidelines for using AI in specific scenarios (e.g., robotics or medicine)
which are not transferable to conducting and reporting scientific research. Our
work makes two contributions: First, we propose a three-dimensional model
consisting of transparency, integrity, and accountability to define the
responsible use of AI. Second, we introduce ``AI Usage Cards'', a standardized
way to report the use of AI in scientific research. Our model and cards allow
users to reflect on key principles of responsible AI usage. They also help the
research community trace, compare, and question various forms of AI usage and
support the development of accepted community norms. The proposed framework and
reporting system aims to promote the ethical and responsible use of AI in
scientific research and provide a standardized approach for reporting AI usage
across different research fields. We also provide a free service to easily
generate AI Usage Cards for scientific work via a questionnaire and export them
in various machine-readable formats for inclusion in different work products at
https://ai-cards.org.
- Abstract(参考訳): ChatGPTのようなAIシステムが人間による作業と区別できないコンテンツを生成できることを考えると、この技術の責任を負うことが懸念される。
aiシステムの利用のメリットとメリットを理解するにはより多くの時間を要するが、その迅速かつ無差別な採用は現実である。
現在、コンテンツ生成におけるAIの責任ある使用を定義し、報告する共通のフレームワークと言語がありません。
以前の研究では、特定のシナリオ(例えば、ロボット工学や医学)でAIを使用するためのガイドラインが提案されていた。
まず、AIの責任ある使用を定義するために、透明性、完全性、説明責任からなる3次元モデルを提案します。
第二に、科学研究におけるAIの利用を報告するための標準化された方法である 'AI Usage Cards' を紹介する。
私たちのモデルとカードは、ユーザーが責任あるAI利用の原則を反映できるようにします。
また、研究コミュニティが様々な形のAIの使用を追跡、比較、疑問視することを支援し、受け入れられたコミュニティ規範の開発を支援する。
提案するフレームワークおよびレポートシステムは、科学研究におけるAIの倫理的かつ責任ある利用を促進することを目的としており、さまざまな研究分野においてAIの使用を報告するための標準化されたアプローチを提供する。
また,科学研究用のAIUsage Cardを簡単に生成し,さまざまな機械可読フォーマットでエクスポートして,さまざまな作業製品に含めるための無料サービス https://ai-cards.org.com を提供する。
関連論文リスト
- Participatory Approaches in AI Development and Governance: A Principled Approach [9.271573427680087]
本稿は、AIにおける参加型ガバナンスに関する2部構成のシリーズの第1部を構成する。
より責任があり、安全で、人間中心のAIシステムを構築し、使用するために、参加型アプローチが有益である、という前提を推し進めている。
論文 参考訳(メタデータ) (2024-06-03T09:49:42Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - Trust, Accountability, and Autonomy in Knowledge Graph-based AI for
Self-determination [1.4305544869388402]
知識グラフ(KG)は、インテリジェントな意思決定を支えるための基盤として登場した。
KGと神経学習の統合は、現在活発な研究のトピックである。
本稿では,KGベースのAIによる自己決定を支援するための基礎的なトピックと研究の柱を概念化する。
論文 参考訳(メタデータ) (2023-10-30T12:51:52Z) - Model Reporting for Certifiable AI: A Proposal from Merging EU
Regulation into AI Development [2.9620297386658185]
ExplainableとSafe AIの大きな進歩にもかかわらず、実践者はAIの安全性に関する規制と標準の欠如に悩まされている。
我々は、開発プロセス全体を通してAIアプリケーションを文書化するための標準化されたカードの使用を提案する。
論文 参考訳(メタデータ) (2023-07-21T12:13:54Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - Measuring Ethics in AI with AI: A Methodology and Dataset Construction [1.6861004263551447]
我々は、AI技術のこのような新しい機能を使用して、AI測定能力を増強することを提案する。
我々は倫理的問題や関心事に関連する出版物を分類するモデルを訓練する。
私たちは、AIメトリクス、特に信頼できる公正なAIベースのツールや技術開発への彼らの貢献の意味を強調します。
論文 参考訳(メタデータ) (2021-07-26T00:26:12Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z) - Questioning the AI: Informing Design Practices for Explainable AI User
Experiences [33.81809180549226]
説明可能なAI(XAI)への関心の高まりは、このトピックに関する膨大なアルゴリズム作業の収集につながった。
私たちは、説明可能なAI製品を作成するための現在のXAIアルゴリズム作業とプラクティスのギャップを特定しようとしています。
我々は,ユーザが説明責任を表現できるXAI質問バンクを開発した。
論文 参考訳(メタデータ) (2020-01-08T12:34:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。