論文の概要: Autonomy for Older Adult-Agent Interaction
- arxiv url: http://arxiv.org/abs/2507.12767v1
- Date: Thu, 17 Jul 2025 03:46:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-18 20:10:24.33454
- Title: Autonomy for Older Adult-Agent Interaction
- Title(参考訳): 高齢者と成人の交流における自律性
- Authors: Jiaxin An,
- Abstract要約: 世界人口の高齢化に伴い、人工知能(AI)を駆使したエージェントが、高齢者の介護を支援する潜在的なツールとして登場した。
本稿では,高齢者の自律性について,意思決定自律,目標指向自律,コントロール自律,社会的責任自律性の4つの重要な側面について考察する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: As the global population ages, artificial intelligence (AI)-powered agents have emerged as potential tools to support older adults' caregiving. Prior research has explored agent autonomy by identifying key interaction stages in task processes and defining the agent's role at each stage. However, ensuring that agents align with older adults' autonomy preferences remains a critical challenge. Drawing on interdisciplinary conceptualizations of autonomy, this paper examines four key dimensions of autonomy for older adults: decision-making autonomy, goal-oriented autonomy, control autonomy, and social responsibility autonomy. This paper then proposes the following research directions: (1) Addressing social responsibility autonomy, which concerns the ethical and social implications of agent use in communal settings; (2) Operationalizing agent autonomy from the task perspective; and (3) Developing autonomy measures.
- Abstract(参考訳): 世界人口の高齢化に伴い、人工知能(AI)を駆使したエージェントが、高齢者の介護を支援する潜在的なツールとして登場した。
従来の研究では、タスクプロセスにおける重要な相互作用段階を特定し、各段階でのエージェントの役割を定義することで、エージェントの自律性について検討してきた。
しかし、エージェントが高齢者の自律的な嗜好に沿うことを保証することは、依然として重要な課題である。
本稿では,高齢者の自律性に関する4つの重要な側面として,意思決定の自律性,目標指向の自律性,制御の自律性,社会的責任の自律性について考察する。
そこで本稿では,(1)コミュニケーションにおけるエージェント利用の倫理的・社会的意味を懸念する社会的責任自律性への取り組み,(2)タスクの観点からエージェント自律を運用すること,(3)自律性向上の方向性を提案する。
関連論文リスト
- Levels of Autonomy for AI Agents [9.324309359500198]
エージェントの自律性のレベルは、その能力と運用環境とは別に、意図的な設計上の決定として扱うことができると論じる。
エージェントと対話する際の役割を特徴とし,エージェントの自律性を高める5つのレベルを定義した。
シングルエージェントおよびマルチエージェントシステムにおけるエージェントの動作を管理するために、AI自律性証明書に対する私たちのフレームワークの潜在的な応用を強調します。
論文 参考訳(メタデータ) (2025-06-14T12:14:36Z) - Toward a Theory of Agents as Tool-Use Decision-Makers [89.26889709510242]
真の自律性は、エージェントが、彼らが知っていること、必要なこと、そしてその知識を効率的に獲得する方法を統治する、一貫性のある疫学の枠組みに根ざす必要がある、と我々は主張する。
本研究では,内的推論と外的行動を等価な疫学ツールとして扱う統一理論を提案し,エージェントが内観と相互作用を体系的に調整することを可能にする。
この視点は、エージェントの設計を単なるアクションエグゼクタから知識駆動インテリジェンスシステムにシフトさせ、適応的で効率的でゴール指向の行動が可能な基礎エージェントを構築するための原則化された道筋を提供する。
論文 参考訳(メタデータ) (2025-06-01T07:52:16Z) - Towards a Taxonomy for Autonomy in Large-Scale Agile Software Development [1.0957528713294875]
本稿では,大規模アジャイル開発における自律性のためのフレームワーク構築に向けた取り組みについて述べる。
予備版では5つのレベルと21の自律性が3つの領域に分類されている。
このような自律性の側面は、大規模アジャイルソフトウェア開発における自律性の限界を分析したり定義したりする際に考慮することができる。
論文 参考訳(メタデータ) (2025-03-04T14:15:16Z) - Human Decision-making is Susceptible to AI-driven Manipulation [87.24007555151452]
AIシステムは、ユーザの認知バイアスと感情的な脆弱性を利用して、有害な結果に向けてそれらを操縦する。
本研究では、経済的・感情的な意思決定の文脈におけるこのような操作に対する人間の感受性について検討した。
論文 参考訳(メタデータ) (2025-02-11T15:56:22Z) - Fully Autonomous AI Agents Should Not be Developed [58.88624302082713]
本稿では,完全自律型AIエージェントを開発すべきではないと主張している。
この立場を支持するために、我々は、従来の科学文献と現在の製品マーケティングから、異なるAIエージェントレベルを規定するために構築する。
分析の結果,システムの自律性によって人へのリスクが増大することが明らかとなった。
論文 参考訳(メタデータ) (2025-02-04T19:00:06Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - A Quantitative Autonomy Quantification Framework for Fully Autonomous Robotic Systems [0.0]
本稿では,全自律モードに着目し,タスク要求に基づく定量的自律性評価フレームワークを提案する。
このフレームワークは、自律性を定量化するツールを提供するだけでなく、自律システム開発者とユーザのための規制インターフェースと共通言語も提供する。
論文 参考訳(メタデータ) (2023-11-03T14:26:53Z) - Assurance for Autonomy -- JPL's past research, lessons learned, and
future directions [56.32768279109502]
幅広い状況の変動が、事前計画された応答を妨げている場合、自律性が必要である。
ミッション・アシュアランス(Mission Assurance)は、信頼性を提供する上で重要な貢献者であるが、何十年にもわたって宇宙飛行に輝く保証の実践は、自律性に関する経験が比較的少ない。
JPLのソフトウェア保証グループの研究者は、自律性の保証に特化した技術の開発に関与している。
論文 参考訳(メタデータ) (2023-05-16T18:24:12Z) - Autonomous Open-Ended Learning of Tasks with Non-Stationary
Interdependencies [64.0476282000118]
固有のモチベーションは、目標間のトレーニング時間を適切に割り当てるタスクに依存しないシグナルを生成することが証明されている。
内在的に動機付けられたオープンエンドラーニングの分野におけるほとんどの研究は、目標が互いに独立しているシナリオに焦点を当てているが、相互依存タスクの自律的な獲得を研究するのはごくわずかである。
特に,タスク間の関係に関する情報をアーキテクチャのより高レベルなレベルで組み込むことの重要性を示す。
そして、自律的に取得したシーケンスを格納する新しい学習層を追加することで、前者を拡張する新しいシステムであるH-GRAILを紹介する。
論文 参考訳(メタデータ) (2022-05-16T10:43:01Z) - Consent as a Foundation for Responsible Autonomy [15.45515784064555]
本稿は、自律責任の動的な側面、すなわち、インテリジェントエージェントが実行時に責任を負わせることに焦点を当てる。
エージェントによる意思決定が、他のエージェントが認識する結果に影響を及ぼすような設定を検討する。
論文 参考訳(メタデータ) (2022-03-22T02:25:27Z) - Learning to Optimize Autonomy in Competence-Aware Systems [32.3596917475882]
体験を通して学習し、オンラインで更新する自律の内省モデルを提案する。
我々は、さまざまなレベルの自律性と利用可能な人間のフィードバックにおいて、自身の習熟度を明示的にモデル化する能力認識システム(CAS)を定義する。
我々はCASの収束特性を解析し、ロボット配送と自律運転領域の実験結果を提供する。
論文 参考訳(メタデータ) (2020-03-17T14:31:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。