論文の概要: Assuring the emotional and cultural intelligence of intelligent software
systems
- arxiv url: http://arxiv.org/abs/2311.08431v2
- Date: Fri, 24 Nov 2023 12:33:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-30 12:55:22.633122
- Title: Assuring the emotional and cultural intelligence of intelligent software
systems
- Title(参考訳): インテリジェントソフトウェアシステムの感情的・文化的知性を保証する
- Authors: Alvine B. Belle
- Abstract要約: ECI(感情と文化の知性)の要件は、差別を意識したインテリジェントなソフトウェアシステムを開発することを目的としている。
このようなシステムは、マイノリティ化されたグループを含むすべての人に共感的に振る舞うことができる。
講演では、これらのECI要件がインテリジェントなソフトウェアシステムによって十分にサポートされていることを保証するために、新しいシステム保証ソリューションを開発する必要性を強調します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Intelligent software systems (e.g., conversational agents, profiling systems,
recruitment systems) are often designed in a manner which may perpetuates
anti-Black racism and other forms of socio-cultural discrimination. This may
reinforce social inequities by supporting the automation of consequential and
sometimes unfair decisions that may be made by such systems and which may have
an adverse impact on credit scores, insurance payouts, and even health
evaluations, just to name a few. My lightning talk will therefore emphasize the
need to propose a new type of non-functional requirements called ECI (emotional
and cultural intelligence) requirements that will aim at developing
discrimination-aware intelligent software systems. Such systems will notably be
able to behave empathetically toward everyone, including minoritized groups and
will ensure they are treated fairly. My talk will also emphasize the need to
develop novel system assurance solutions to assure these ECI requirements are
sufficiently supported by intelligent software systems.
- Abstract(参考訳): 知的ソフトウェアシステム(会話エージェント、プロファイリングシステム、採用システム)は、しばしば反黒人人種差別やその他の社会文化的差別の形式を永続させる方法で設計される。
これは、そのようなシステムによってなされる可能性があり、信用スコア、保険給付、健康評価に悪影響を及ぼす可能性のある一連の不公平な判断の自動化をサポートすることによって、社会的不平等を強化する可能性がある。
私のライトニングトークは、差別を意識したインテリジェントなソフトウェアシステムを開発することを目的とした、ECI(感情的および文化的知性)要求と呼ばれる新しいタイプの非機能要件を提案する必要性を強調します。
このようなシステムは、マイノリティ化されたグループを含む全員に対して共感的に振る舞うことができ、公平に扱われることを確実にする。
講演では、これらのECI要件がインテリジェントなソフトウェアシステムによって十分にサポートされていることを保証するために、新しいシステム保証ソリューションを開発する必要性を強調します。
関連論文リスト
- Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
AIシステムは知恵を欠いている。
AI研究はタスクレベルの戦略に焦点を当てているが、メタ認知はAIシステムでは未発達である。
メタ認知機能をAIシステムに統合することは、その堅牢性、説明可能性、協力性、安全性を高めるために不可欠である。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - Design of a Quality Management System based on the EU Artificial Intelligence Act [0.0]
EU AI Actは、リスクの高いAIシステムのプロバイダとデプロイ者が品質管理システム(QMS)を確立することを義務付けている。
本稿では,マイクロサービス・ソフトウェア・アズ・ア・サービス・ウェブ・アプリケーションとしてのQMSの設計コンセプトとプロトタイプを紹介する。
論文 参考訳(メタデータ) (2024-08-08T12:14:02Z) - Socialized Learning: A Survey of the Paradigm Shift for Edge Intelligence in Networked Systems [62.252355444948904]
本稿では,エッジインテリジェンス(EI)と社会学習(SL)の統合に関する文献レビューの結果について述べる。
SLは、エージェントの協調能力と集団知性を増幅することを目的とした、社会的原則と行動に基づく学習パラダイムである。
ソーシャル化アーキテクチャ、ソーシャル化トレーニング、ソーシャル化推論の3つの統合コンポーネントについて詳しく検討し、その強みと弱点を分析した。
論文 参考訳(メタデータ) (2024-04-20T11:07:29Z) - Bridging Gaps, Building Futures: Advancing Software Developer Diversity and Inclusion Through Future-Oriented Research [50.545824691484796]
我々はSEの多様性と包摂性に関する課題と解決策について、SE研究者や実践者から知見を提示する。
我々は,将来的なユートピアやディストピアのビジョンを共有し,今後の研究の方向性とアカデミックや産業への示唆を提供する。
論文 参考訳(メタデータ) (2024-04-10T16:18:11Z) - Enabling High-Level Machine Reasoning with Cognitive Neuro-Symbolic
Systems [67.01132165581667]
本稿では,認知アーキテクチャを外部のニューロシンボリックコンポーネントと統合することにより,AIシステムにおける高レベル推論を実現することを提案する。
本稿では,ACT-Rを中心としたハイブリッドフレームワークについて紹介し,最近の応用における生成モデルの役割について論じる。
論文 参考訳(メタデータ) (2023-11-13T21:20:17Z) - Artificial Intelligence Ethics Education in Cybersecurity: Challenges
and Opportunities: a focus group report [10.547686057159309]
サイバーセキュリティにおけるAIツールの出現は多くの機会と不確実性を生み出している。
AIサイバーセキュリティ作業における“ブラックボックス”の精神の理解も、最も重要である。
将来のAI教育者や実践者は、厳格な技術トレーニングカリキュラムを実装することで、これらの問題に対処する必要がある。
論文 参考訳(メタデータ) (2023-11-02T00:08:07Z) - No Trust without regulation! [0.0]
機械学習(ML)の性能の爆発と、その応用の可能性は、産業システムにおけるその利用を考慮し続けています。
安全と、その基準、規制、標準の問題については、いまだに片側に過度に残っています。
欧州委員会は、安全で信頼性があり、ヨーロッパの倫理的価値を尊重するAIベースのアプリケーションを統合するための、前進と強固なアプローチを構築するための基盤を築き上げた。
論文 参考訳(メタデータ) (2023-09-27T09:08:41Z) - Queering the ethics of AI [0.6993026261767287]
この章は、AIが差別を永続させる可能性をめぐる倫理的懸念を強調している。
この章は、しばしば非差別法を支える平等の概念に対する批判的な検証が必要であると主張している。
論文 参考訳(メタデータ) (2023-08-25T17:26:05Z) - Beneficent Intelligence: A Capability Approach to Modeling Benefit,
Assistance, and Associated Moral Failures through AI Systems [12.239090962956043]
AI倫理に関する一般的な言説は、AIシステムが個人と対話する際に生じる多様な倫理的懸念を捉えるのに必要な言語や形式主義を欠いている。
本稿では、利害関係者に有意義な利益や援助を与えるために、AIシステムに必要な倫理的概念と権利のネットワークを定式化する枠組みを提案する。
論文 参考訳(メタデータ) (2023-08-01T22:38:14Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。