論文の概要: Designing Social Robots with Ethical, User-Adaptive Explainability in the Era of Foundation Models
- arxiv url: http://arxiv.org/abs/2603.00102v1
- Date: Tue, 17 Feb 2026 20:28:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-30 05:04:29.555166
- Title: Designing Social Robots with Ethical, User-Adaptive Explainability in the Era of Foundation Models
- Title(参考訳): 基本モデルにおける倫理的・ユーザ適応的説明可能性を備えたソーシャルロボットの設計
- Authors: Fethiye Irmak Dogan, Alva Markelius, Hatice Gunes,
- Abstract要約: 我々は,基礎モデル駆動型社会ロボットの中核設計目標として,倫理的かつユーザ適応的な説明可能性を扱う必要があると論じている。
本分析に基づいて,ユーザ適応型・モダリティ対応型・共同設計型の説明戦略へ移行するための4つの推奨事項を提案する。
- 参考スコア(独自算出の注目度): 6.57350987111935
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Foundation models are increasingly embedded in social robots, mediating not only what they say and do but also how they adapt to users over time. This shift renders traditional ``one-size-fits-all'' explanation strategies especially problematic: generic justifications are now wrapped around behaviour produced by models trained on vast, heterogeneous, and opaque datasets. We argue that ethical, user-adapted explainability must be treated as a core design objective for foundation-model-driven social robotics. We first identify open challenges around explainability and ethical concerns that arise when both adaptation and explanation are delegated to foundation models. Building on this analysis, we propose four recommendations for moving towards user-adapted, modality-aware, and co-designed explanation strategies grounded in smaller, fairer datasets. An illustrative use case of an LLM-driven socially assistive robot demonstrates how these recommendations might be instantiated in a sensitive, real-world domain.
- Abstract(参考訳): ファンデーションモデルはますますソーシャルロボットに組み込まれており、発言や行動だけでなく、ユーザーへの適応の仕方もメディア化されている。
一般的な正当化は、広大な、異種、不透明なデータセットでトレーニングされたモデルによって生成された振る舞いにラップされます。
我々は、基礎モデル駆動型社会ロボティクスの中核的な設計目標として、倫理的かつユーザ適応的な説明可能性を扱う必要があると論じる。
まず、適応性と説明性の両方が基礎モデルに委譲されたときに生じる、説明可能性と倫理的懸念に関するオープンな課題を特定します。
この分析に基づいて、より小型で公平なデータセットを基盤とした、ユーザ適応型、モダリティ対応型、および共設計による説明戦略に移行するための4つの推奨事項を提案する。
LLM駆動型社会支援ロボットの実証的なユースケースは、これらのレコメンデーションが現実世界の繊細な領域でどのようにインスタンス化されるかを示している。
関連論文リスト
- Community Norms in the Spotlight: Enabling Task-Agnostic Unsupervised Pre-Training to Benefit Online Social Media [1.518418913270911]
タスク固有の微調整から教師なし事前学習へのパラダイムシフトを提唱する。
私たちは、この方向がAI for Social Goodに多くの機会をもたらすと信じています。
論文 参考訳(メタデータ) (2026-01-26T05:52:19Z) - Advancing Interactive Explainable AI via Belief Change Theory [5.842480645870251]
この種の形式化は、対話的な説明を開発するためのフレームワークと方法論を提供する、と我々は主張する。
まず,人間と機械の間で共有される説明情報を表現するために,論理に基づく新しい形式を定義した。
次に、対話型XAIの現実シナリオについて検討し、新しい知識と既存の知識の優先順位が異なり、フォーマリズムがインスタンス化される可能性がある。
論文 参考訳(メタデータ) (2024-08-13T13:11:56Z) - An Empirical Design Justice Approach to Identifying Ethical Considerations in the Intersection of Large Language Models and Social Robotics [0.31378963995109616]
大規模言語モデル(LLM)の社会ロボティクスへの統合は、ユニークな倫理的課題と社会的影響を示す。
本研究は、これらの2つの技術の設計と開発に生じる倫理的考察を特定することを目的としている。
論文 参考訳(メタデータ) (2024-06-10T15:53:50Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Transferring Foundation Models for Generalizable Robotic Manipulation [82.12754319808197]
インターネット規模の基盤モデルによって生成された言語推論セグメンテーションマスクを効果的に活用する新しいパラダイムを提案する。
提案手法は,オブジェクトのポーズを効果的かつ堅牢に知覚し,サンプル効率のよい一般化学習を可能にする。
デモは提出されたビデオで見ることができ、より包括的なデモはlink1またはlink2で見ることができます。
論文 参考訳(メタデータ) (2023-06-09T07:22:12Z) - Mimetic Models: Ethical Implications of AI that Acts Like You [5.843033621853535]
人工知能研究における新たなテーマは、特定の人々の決定と振る舞いをシミュレートするモデルの作成である。
われわれは, 倫理的, 社会的問題に対処するための枠組みを構築した。
論文 参考訳(メタデータ) (2022-07-19T16:41:36Z) - On the Opportunities and Risks of Foundation Models [256.61956234436553]
これらのモデルの基礎モデルは、批判的に中心的だが不完全な性格を根底から立証するものです。
本報告では,基礎モデルの可能性とリスクについて概説する。
これらの疑問に対処するためには、基礎モデルに関する重要な研究の多くは、深い学際的なコラボレーションが必要であると信じている。
論文 参考訳(メタデータ) (2021-08-16T17:50:08Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。