論文の概要: Advancing Responsible Innovation in Agentic AI: A study of Ethical Frameworks for Household Automation
- arxiv url: http://arxiv.org/abs/2507.15901v1
- Date: Mon, 21 Jul 2025 06:10:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-23 21:34:13.803546
- Title: Advancing Responsible Innovation in Agentic AI: A study of Ethical Frameworks for Household Automation
- Title(参考訳): エージェントAIにおける責任あるイノベーションの促進:家庭の自動化のための倫理的枠組みに関する研究
- Authors: Joydeep Chandra, Satyam Kumar Navneet,
- Abstract要約: この記事ではエージェントAIとそのアプリケーションを分析し、リアクティブから積極的な自律性、プライバシ、公正性、ユーザコントロールへの移行に注目します。
監視・偏見・プライバシーリスクのリスクが高い高齢者、子ども、神経分岐などの脆弱性のあるユーザーグループについて検討した。
設計命令は、調整された説明可能性、きめ細かい同意機構、堅牢なオーバーライド制御など、強調される。
- 参考スコア(独自算出の注目度): 1.6766200616088744
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The implementation of Artificial Intelligence (AI) in household environments, especially in the form of proactive autonomous agents, brings about possibilities of comfort and attention as well as it comes with intra or extramural ethical challenges. This article analyzes agentic AI and its applications, focusing on its move from reactive to proactive autonomy, privacy, fairness and user control. We review responsible innovation frameworks, human-centered design principles, and governance practices to distill practical guidance for ethical smart home systems. Vulnerable user groups such as elderly individuals, children, and neurodivergent who face higher risks of surveillance, bias, and privacy risks were studied in detail in context of Agentic AI. Design imperatives are highlighted such as tailored explainability, granular consent mechanisms, and robust override controls, supported by participatory and inclusive methodologies. It was also explored how data-driven insights, including social media analysis via Natural Language Processing(NLP), can inform specific user needs and ethical concerns. This survey aims to provide both a conceptual foundation and suggestions for developing transparent, inclusive, and trustworthy agentic AI in household automation.
- Abstract(参考訳): 家庭環境における人工知能(AI)の実装は、特に積極的自律エージェントの形で、快適さと注意の可能性をもたらし、また、内的または外的倫理的課題も伴う。
この記事ではエージェントAIとそのアプリケーションを分析し、リアクティブから積極的な自律性、プライバシ、公正性、ユーザコントロールへの移行に注目します。
我々は、倫理的スマートホームシステムのための実践的ガイダンスを精査するために、責任あるイノベーションフレームワーク、人間中心の設計原則、ガバナンスプラクティスをレビューする。
監視、偏見、プライバシーリスクのリスクが高い高齢者、子供、神経分枝のような脆弱性のあるユーザーグループについて、エージェントAIの文脈で詳細に研究した。
デザインインペラティブは、カスタマイズされた説明可能性、きめ細かい同意機構、そして、参加的および包括的方法論によって支持される堅牢なオーバーライド制御など、強調される。
また、自然言語処理(NLP)によるソーシャルメディア分析を含むデータ駆動の洞察が、特定のユーザニーズや倫理的懸念にどのように影響するかについても検討した。
この調査は、家事自動化において透明で包括的で信頼できるエージェントAIを開発するための概念的基礎と提案の両方を提供することを目的としている。
関連論文リスト
- Internet of Agents: Fundamentals, Applications, and Challenges [66.44234034282421]
異種エージェント間のシームレスな相互接続、動的発見、協調的なオーケストレーションを可能にする基盤となるフレームワークとして、エージェントのインターネット(IoA)を紹介した。
我々は,機能通知と発見,適応通信プロトコル,動的タスクマッチング,コンセンサスとコンフリクト解決機構,インセンティブモデルなど,IoAの重要な運用イネーラを分析した。
論文 参考訳(メタデータ) (2025-05-12T02:04:37Z) - Media and responsible AI governance: a game-theoretic and LLM analysis [61.132523071109354]
本稿では,信頼できるAIシステムを育成する上での,AI開発者,規制当局,ユーザ,メディア間の相互作用について検討する。
進化的ゲーム理論と大言語モデル(LLM)を用いて、異なる規制体制下でこれらのアクター間の戦略的相互作用をモデル化する。
論文 参考訳(メタデータ) (2025-03-12T21:39:38Z) - Integrating Generative AI in Cybersecurity Education: Case Study Insights on Pedagogical Strategies, Critical Thinking, and Responsible AI Use [0.0]
本研究では,GenAIツールをサイバーセキュリティ教育に統合するための構造的枠組みを提案する。
実装戦略は2段階のアプローチに従い、チュートリアル演習とアセスメントタスクにGenAIを組み込んだ。
調査の結果,AI支援学習は,セキュリティポリシーの評価,リスク評価の精査,理論的知識の実践的応用へのブリッジといった,学生の能力を大幅に向上させた。
論文 参考訳(メタデータ) (2025-02-21T10:14:07Z) - Toward Ethical AI: A Qualitative Analysis of Stakeholder Perspectives [0.0]
この研究は、AIシステムのプライバシーに関するステークホルダーの視点を探求し、教育者、親、AI専門家に焦点をあてる。
この研究は、227人の参加者による調査回答の質的分析を用いて、データ漏洩、倫理的誤用、過剰なデータ収集を含む主要なプライバシーリスクを特定する。
この調査結果は、堅牢なプライバシ保護とAIのメリットのバランスに関する実用的な洞察を提供する。
論文 参考訳(メタデータ) (2025-01-23T02:06:25Z) - Human services organizations and the responsible integration of AI: Considering ethics and contextualizing risk(s) [0.0]
著者らは、AIデプロイメントに関する倫理的懸念は、実装コンテキストや特定のユースケースによって大きく異なると主張している。
彼らは、データ感度、専門的な監視要件、クライアントの幸福に対する潜在的影響などの要因を考慮に入れた、次元的リスクアセスメントアプローチを提案する。
論文 参考訳(メタデータ) (2025-01-20T19:38:21Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - Testing autonomous vehicles and AI: perspectives and challenges from cybersecurity, transparency, robustness and fairness [53.91018508439669]
この研究は、人工知能を自律走行車(AV)に統合する複雑さを探求する
AIコンポーネントがもたらした課題と、テスト手順への影響を調べます。
本稿は、重要な課題を特定し、AV技術におけるAIの研究・開発に向けた今後の方向性を提案する。
論文 参考訳(メタデータ) (2024-02-21T08:29:42Z) - Investigating Responsible AI for Scientific Research: An Empirical Study [4.597781832707524]
このような機関におけるResponsible AI(RAI)の推進は、AI設計と開発に倫理的配慮を統合することの重要性の高まりを強調している。
本稿では,AI設計・開発に内在する倫理的リスクに対する意識と準備性を評価することを目的とする。
その結果、倫理的、責任的、包括的AIに関する知識ギャップが明らかとなり、利用可能なAI倫理フレームワークに対する認識が制限された。
論文 参考訳(メタデータ) (2023-12-15T06:40:27Z) - Ethics in conversation: Building an ethics assurance case for autonomous
AI-enabled voice agents in healthcare [1.8964739087256175]
原則に基づく倫理保証議論パターンは、AI倫理のランドスケープにおける1つの提案である。
本稿では,AIベースの遠隔医療システムであるDoraの利用に対して,この倫理保証フレームワークを適用した事例研究の中間的結果を示す。
論文 参考訳(メタデータ) (2023-05-23T16:04:59Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。