論文の概要: Human-Centred Requirements Engineering for Critical Systems: Insights from Disaster Early Warning Applications
- arxiv url: http://arxiv.org/abs/2511.12856v1
- Date: Mon, 17 Nov 2025 01:02:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:24.585884
- Title: Human-Centred Requirements Engineering for Critical Systems: Insights from Disaster Early Warning Applications
- Title(参考訳): 臨界システムのための人中心要求工学:災害早期警戒アプリケーションからの考察
- Authors: Anuradha Madugalla, Jixuan Dong, Kai Lyne Loi, Matthew Crossman, John Grundy,
- Abstract要約: 本論では,人間中心の側面を考えることが信頼性の重要な次元であると主張している。
社会的責任を重要なシステム開発に組み込むために設計された、人間中心のREプロセスを提供する。
- 参考スコア(独自算出の注目度): 2.0419877700300177
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Critical systems, such as those used in healthcare, defence, and disaster management, demand rigorous requirements engineering to ensure safety and reliability. Yet, much of this rigour has traditionally focused on technical assurance, often overlooking the human and social contexts in which these systems operate. This paper argues that considering human-centric aspects is an essential dimension of dependability, and presents a human-centred RE process designed to integrate social responsibility into critical system development. Drawing from a literature review, we identified a set of guidelines for designing software for vulnerable communities and translated these into sixty-two functional and non-functional requirements. These requirements were operationalised through the design of an adaptive early warning system prototype, which was subsequently evaluated through six interviews and eight cognitive walkthroughs to validate their relevance and applicability. The findings demonstrate that human-centric requirements, when addressed early, enhance the usability and accessibility of systems for all users. The paper concludes by positioning human-centricity not as an ethical add-on but as a defining quality of safe and equitable critical systems.
- Abstract(参考訳): 医療、防衛、災害管理などの重要なシステムでは、安全と信頼性を確保するために厳格な要求エンジニアリングが要求される。
しかし、これらの厳密さの多くは伝統的に技術的保証に焦点を合わせており、しばしばこれらのシステムが機能する人間と社会の文脈を見下ろしている。
本稿では,人間中心の側面を考えることが信頼性の重要な次元であり,社会的責任を重要なシステム開発に組み込むように設計された人間中心のREプロセスを提案する。
文献レビューから、脆弱なコミュニティのためにソフトウェアを設計するための一連のガイドラインを特定し、これらを機能的および非機能的要件6つに翻訳した。
これらの要件は適応型早期警戒システムプロトタイプの設計を通じて運用され、その後6回のインタビューと8回の認知ウォークスルーを通じて評価され、それらの妥当性と適用性が確認された。
これらの結果から,人間中心の要件が早期に対処された場合,システム全体のユーザビリティとアクセシビリティを高めることが示唆された。
この論文は、人間の中心性を倫理的な付加物ではなく、安全で公平な臨界システムの質を定義するものとして位置づけることによって締めくくられる。
関連論文リスト
- AI Deception: Risks, Dynamics, and Controls [153.71048309527225]
このプロジェクトは、AI偽装分野の包括的で最新の概要を提供する。
我々は、動物の偽装の研究からシグナル伝達理論に基づく、AI偽装の正式な定義を同定する。
我々は,AI偽装研究の展望を,偽装発生と偽装処理の2つの主要な構成要素からなる偽装サイクルとして整理する。
論文 参考訳(メタデータ) (2025-11-27T16:56:04Z) - A Principle-based Framework for the Development and Evaluation of Large Language Models for Health and Wellness [7.135227672247848]
本稿では,個人の健康データを解釈するための大規模言語モデル(LLM)システムであるFitbit Insightsエクスプローラの開発について述べる。
安全性、有用性、正確性、妥当性、パーソナライゼーション(SHARP)の原則に基づくフレームワークを導入している。
一般論者や臨床専門家による人的評価、オートラッター評価、敵対的検査を含む総合的な評価技術を統合する。
論文 参考訳(メタデータ) (2025-10-23T06:54:33Z) - Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - Six Guidelines for Trustworthy, Ethical and Responsible Automation Design [0.6144680854063939]
自動化システムに対するキャリブレーションされた信頼は、社会への安全でシームレスな統合にとって重要である。
設計者が正確な信頼性評価を最適化するための6つの設計ガイドラインを提案する。
論文 参考訳(メタデータ) (2025-08-04T13:01:09Z) - Towards User-Centred Design of AI-Assisted Decision-Making in Law Enforcement [1.1890528509539204]
法執行機関におけるAI支援システムのユーザ要件は、まだ不明である。
本研究の参加者は,大量のデータを効率的に処理・分析できるシステムの必要性を強調した。
法執行ドメインの動的で複雑な性質のため、システムが完全な自動化を達成する可能性は極めて低い、と私たちは主張する。
論文 参考訳(メタデータ) (2025-04-24T09:25:29Z) - Towards Trustworthy GUI Agents: A Survey [64.6445117343499]
本調査では,GUIエージェントの信頼性を5つの重要な次元で検証する。
敵攻撃に対する脆弱性、シーケンシャルな意思決定における障害モードのカスケードなど、大きな課題を特定します。
GUIエージェントが普及するにつれて、堅牢な安全基準と責任ある開発プラクティスを確立することが不可欠である。
論文 参考訳(メタデータ) (2025-03-30T13:26:00Z) - AILuminate: Introducing v1.0 of the AI Risk and Reliability Benchmark from MLCommons [62.374792825813394]
本稿ではAI製品リスクと信頼性を評価するための業界標準ベンチマークとして,AIluminate v1.0を紹介する。
このベンチマークは、危険、違法、または望ましくない行動を12の危険カテゴリーで引き起こすように設計されたプロンプトに対するAIシステムの抵抗を評価する。
論文 参考訳(メタデータ) (2025-02-19T05:58:52Z) - Human-centred test and evaluation of military AI [0.0]
REAIM 2024 Blueprint for Actionは、軍事領域におけるAIアプリケーションは倫理的かつ人間中心であるべきだと述べている。
AIシステムの開発と展開におけるTEVVは、ライフサイクルを通して人間のユーザを巻き込む必要がある。
従来の人間中心のテストと評価方法は、デプロイされたAIシステムに適応する必要がある。
論文 参考訳(メタデータ) (2024-12-02T21:14:55Z) - ConSiDERS-The-Human Evaluation Framework: Rethinking Human Evaluation for Generative Large Language Models [53.00812898384698]
生成型大規模言語モデル(LLM)の人間による評価は多分野にわたる作業であるべきだと論じる。
認知バイアスが、流動的な情報や真理をいかに説明するか、そして、認識の不確実性が、Likertのような評価スコアの信頼性にどのように影響するかを強調します。
本稿では,ConSiDERS-The-Human評価フレームワークを提案する。一貫性,スコーリング基準,差別化,ユーザエクスペリエンス,責任,スケーラビリティの6つの柱からなる。
論文 参考訳(メタデータ) (2024-05-28T22:45:28Z) - Towards Human-centered Proactive Conversational Agents [60.57226361075793]
積極的システムと反応性システムの区別は、積極的システムのイニシアティブな性質にある。
我々は,人間中心型PCAの3つの重要な側面,すなわち知性,適応性,市民性に関する新たな分類法を確立する。
論文 参考訳(メタデータ) (2024-04-19T07:14:31Z) - Systems Challenges for Trustworthy Embodied Systems [0.0]
エンボディシステムと呼ばれる、ますます自律的かつ自律的な新世代のシステムの開発が進んでいる。
実施されたシステムの振る舞いを有益な方法で調整し、人間中心の社会的価値との整合性を確保し、安全で信頼性の高い人間と機械の相互作用を設計することが不可欠である。
我々は、急進的なシステム工学が組み込みシステムからエンボディドシステムへの気候に到達し、状況を認識し、意図的に駆動され、爆発的に進化し、ほとんど予測不可能で、ますます自律的なエンボディドシステムのダイナミックフェデレーションの信頼性を保証していると論じている。
論文 参考訳(メタデータ) (2022-01-10T15:52:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。