論文の概要: 2HCDL: Holistic Human-Centered Development Lifecycle
- arxiv url: http://arxiv.org/abs/2405.01566v1
- Date: Mon, 8 Apr 2024 06:42:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-12 16:10:01.603708
- Title: 2HCDL: Holistic Human-Centered Development Lifecycle
- Title(参考訳): 2HCDL: ホリスティックな人間中心開発ライフサイクル
- Authors: Said Daoudagh, Eda Marchetti, Oum-El-Kheir Aktouf,
- Abstract要約: この高速な抽象化は、Human-Centered Developmentライフサイクル方法論を導入します。
この方法論は、より安全で、安全で、信頼できる、透明で、私的な開発プロセスのために、人的価値と財産の強制と、重要な問題の緩和と予防に焦点を当てている。
- 参考スコア(独自算出の注目度): 0.34137115855910755
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The recent events affecting global society continuously highlight the need to change the development lifecycle of complex systems by promoting human-centered solutions that increase awareness and ensure critical properties such as security, safety, trust, transparency, and privacy. This fast abstract introduces the Holistic Human-Centered Development Lifecycle (2HCDL) methodology focused on: (i) the enforcement of human values and properties and (ii) the mitigation and prevention of critical issues for more secure, safe, trustworthy, transparent, and private development processes.
- Abstract(参考訳): グローバル社会に影響を及ぼす最近の出来事は、認識を高め、セキュリティ、安全、信頼、透明性、プライバシーといった重要な特性を確実にする人間中心のソリューションを促進することによって、複雑なシステムの開発ライフサイクルを変える必要性を継続的に強調している。
この高速な抽象概念は、ホリスティックな人間中心開発ライフサイクル(2HCDL)の方法論を紹介している。
一 人的価値及び財産の執行
(二)より安全で、安全で、信頼性があり、透明性があり、かつ、私的な開発プロセスにおいて、重要な問題の緩和及び防止。
関連論文リスト
- Towards Privacy-aware Mental Health AI Models: Advances, Challenges, and Opportunities [61.633126163190724]
精神病は、社会的、個人的コストがかなり高い広範囲で不安定な状態である。
近年の人工知能(AI)の進歩は、うつ病、不安障害、双極性障害、統合失調症、外傷後ストレス障害などの病態を認識し、対処するための大きな可能性を秘めている。
データセットやトレーニング済みモデルからの機密データ漏洩のリスクを含むプライバシー上の懸念は、これらのAIシステムを実際の臨床環境にデプロイする上で、依然として重要な障壁である。
論文 参考訳(メタデータ) (2025-02-01T15:10:02Z) - Open Problems in Machine Unlearning for AI Safety [61.43515658834902]
特定の種類の知識を選択的に忘れたり、抑圧したりするマシンアンラーニングは、プライバシとデータ削除タスクの約束を示している。
本稿では,アンラーニングがAI安全性の包括的ソリューションとして機能することを防止するための重要な制約を特定する。
論文 参考訳(メタデータ) (2025-01-09T03:59:10Z) - Building Trust: Foundations of Security, Safety and Transparency in AI [0.23301643766310373]
我々は、問題の追跡、修復、AIモデルのライフサイクルとオーナシッププロセスの明らかな欠如といった課題を強調しながら、現在のセキュリティと安全性のシナリオをレビューする。
本稿では,AIモデルの開発と運用において,より標準化されたセキュリティ,安全性,透明性を実現するための基礎的要素を提供する。
論文 参考訳(メタデータ) (2024-11-19T06:55:57Z) - The Gradient of Health Data Privacy [15.417809900388262]
本稿では、健康データガバナンスに対する新たな「プライバシ・グラデーション」アプローチを紹介する。
我々の多次元概念は、データ感度、利害関係者の関係、使用目的、時間的側面などの要因を考察する。
このアプローチは、世界中の多様な医療環境において、重要なプライバシー問題にどのように対処できるかを実証する。
論文 参考訳(メタデータ) (2024-10-01T17:35:18Z) - Bi-Factorial Preference Optimization: Balancing Safety-Helpfulness in Language Models [94.39278422567955]
人間の嗜好を微調整した大型言語モデル(LLM)は、その能力向上に成功している。
しかし、微調整中のLLMの安全性確保は依然として重要な懸念事項である。
本稿では,BFPO(Bi-Factorial Preference Optimization)と呼ばれる教師あり学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-27T17:31:21Z) - Towards Secure and Private AI: A Framework for Decentralized Inference [14.526663289437584]
大規模マルチモーダル基盤モデルは、スケーラビリティ、信頼性、潜在的な誤用に関する課題を提示する。
分散システムは、ワークロードの分散と障害の中心的なポイントの緩和によるソリューションを提供する。
これらの課題に対処するためには、AI開発に責任を負うように設計された包括的なフレームワークを使います。
論文 参考訳(メタデータ) (2024-07-28T05:09:17Z) - Critical Infrastructure Security: Penetration Testing and Exploit Development Perspectives [0.0]
本稿では,重要なインフラのセキュリティに関する文献をレビューし,浸透試験と活用開発に焦点をあてる。
この論文の発見は、重要なインフラや、サイバー敵による高度な脅威に固有の脆弱性を明らかにしている。
このレビューは、継続的かつ積極的なセキュリティアセスメントの必要性を強調している。
論文 参考訳(メタデータ) (2024-07-24T13:17:07Z) - Towards Privacy-Aware and Personalised Assistive Robots: A User-Centred Approach [55.5769013369398]
この研究は、フェデレートラーニング(FL)のようなユーザー中心のプライバシーに配慮した技術のパイオニアである。
FLは機密データを共有せずに協調学習を可能にし、プライバシとスケーラビリティの問題に対処する。
この作業には、スマート車椅子アシストのためのソリューションの開発、ユーザの独立性の向上、幸福感の向上が含まれる。
論文 参考訳(メタデータ) (2024-05-23T13:14:08Z) - A Survey of Trustworthy Federated Learning with Perspectives on
Security, Robustness, and Privacy [47.89042524852868]
Federated Learning (FL) は,さまざまな現実のシナリオに対して,有望なソリューションとして注目されている。
しかし、データの分離とプライバシーに関する課題は、FLシステムの信頼性を脅かす。
論文 参考訳(メタデータ) (2023-02-21T12:52:12Z) - Towards Safer Generative Language Models: A Survey on Safety Risks,
Evaluations, and Improvements [76.80453043969209]
本調査では,大規模モデルに関する安全研究の枠組みについて述べる。
まず、広範囲にわたる安全問題を導入し、その後、大型モデルの安全性評価手法を掘り下げる。
トレーニングからデプロイメントまで,大規模なモデルの安全性を高めるための戦略について検討する。
論文 参考訳(メタデータ) (2023-02-18T09:32:55Z) - Proceedings of KDD 2020 Workshop on Data-driven Humanitarian Mapping:
Harnessing Human-Machine Intelligence for High-Stake Public Policy and
Resilience Planning [7.77561570119593]
人道的課題は、世界中の脆弱なコミュニティに不当に影響を及ぼす。
こうした危機が拡大しているにもかかわらず、公正な公共政策決定を科学的に伝えるためのデータサイエンス研究の顕著な曖昧さは依然として残っている。
このギャップを埋めるためのデータ駆動型人道マッピング研究プログラムを提案する。
論文 参考訳(メタデータ) (2021-09-01T15:30:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。