論文の概要: Data-Centric Safety and Ethical Measures for Data and AI Governance
- arxiv url: http://arxiv.org/abs/2506.10217v1
- Date: Wed, 11 Jun 2025 22:26:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 15:37:22.480943
- Title: Data-Centric Safety and Ethical Measures for Data and AI Governance
- Title(参考訳): データとAIガバナンスのためのデータ中心の安全と倫理的措置
- Authors: Srija Chakraborty,
- Abstract要約: AIとデータセットライフサイクルのさまざまなステージを含む、責任あるデータセット設計フレームワークを提案する。
このフレームワークは、データセットの作成、使用、共有における責任あるプラクティスを促進して、レッドチーム化を促進し、リスクを最小限にし、AIモデルの信頼を高める。
- 参考スコア(独自算出の注目度): 0.5982922468400899
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Datasets play a key role in imparting advanced capabilities to artificial intelligence (AI) foundation models that can be adapted to various downstream tasks. These downstream applications can introduce both beneficial and harmful capabilities -- resulting in dual use AI foundation models, with various technical and regulatory approaches to monitor and manage these risks. However, despite the crucial role of datasets, responsible dataset design and ensuring data-centric safety and ethical practices have received less attention. In this study, we pro-pose responsible dataset design framework that encompasses various stages in the AI and dataset lifecycle to enhance safety measures and reduce the risk of AI misuse due to low quality, unsafe and unethical data content. This framework is domain agnostic, suitable for adoption for various applications and can promote responsible practices in dataset creation, use, and sharing to facilitate red teaming, minimize risks, and increase trust in AI models.
- Abstract(参考訳): データセットは、さまざまな下流タスクに適応可能な人工知能(AI)基盤モデルに高度な能力を与える上で重要な役割を果たす。
これらのダウンストリームアプリケーションは、有益な機能と有害な機能の両方を導入することができます -- 結果として、これらのリスクを監視し管理するための、さまざまな技術的および規制的なアプローチを備えた、デュアルユースAIファンデーションモデルが実現します。
しかし、データセットの重要な役割にもかかわらず、責任あるデータセット設計とデータ中心の安全性と倫理的プラクティスを保証することは、あまり注目されていない。
本研究では、安全対策を強化し、低品質、安全でない、非倫理的なデータコンテンツによるAI誤用リスクを低減するために、AIおよびデータセットライフサイクルの様々な段階を含む責任データセット設計フレームワークを提案する。
このフレームワークはドメインに依存しないため、さまざまなアプリケーションに適用するのに適しており、データセットの作成、使用、共有における責任あるプラクティスを促進して、レッドチーム化を促進し、リスクを最小限にし、AIモデルの信頼を高めることができる。
関連論文リスト
- Towards Human-Guided, Data-Centric LLM Co-Pilots [53.35493881390917]
CliMB-DCは、機械学習コパイロットのための、ヒューマンガイド付き、データ中心のフレームワークである。
高度なデータ中心ツールとLLM駆動推論を組み合わせることで、堅牢でコンテキスト対応のデータ処理を可能にする。
CliMB-DCが未処理のデータセットをML対応フォーマットに変換する方法を示す。
論文 参考訳(メタデータ) (2025-01-17T17:51:22Z) - EARBench: Towards Evaluating Physical Risk Awareness for Task Planning of Foundation Model-based Embodied AI Agents [53.717918131568936]
EAI(Embodied AI)は、高度なAIモデルを現実世界のインタラクションのための物理的なエンティティに統合する。
高レベルのタスク計画のためのEAIエージェントの"脳"としてのファンデーションモデルは、有望な結果を示している。
しかし、これらのエージェントの物理的環境への展開は、重大な安全性上の課題を呈している。
本研究では,EAIシナリオにおける身体的リスクの自動評価のための新しいフレームワークEARBenchを紹介する。
論文 参考訳(メタデータ) (2024-08-08T13:19:37Z) - Generative AI Models: Opportunities and Risks for Industry and Authorities [1.3196892898418466]
生成AIモデルは、伝統的に創造性と人間の理解を必要とする幅広いタスクを実行することができる。
トレーニング中は、既存のデータからパターンを学び、その後、新しいコンテンツを生成することができる。
生成AIに関連する多くのリスクは、開発中に対処する必要がある。
論文 参考訳(メタデータ) (2024-06-07T08:34:30Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。