論文の概要: Fairness risk and its privacy-enabled solution in AI-driven robotic applications
- arxiv url: http://arxiv.org/abs/2601.08953v1
- Date: Tue, 13 Jan 2026 19:43:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-15 18:59:20.152403
- Title: Fairness risk and its privacy-enabled solution in AI-driven robotic applications
- Title(参考訳): AI駆動型ロボットアプリケーションにおける公正リスクとそのプライバシ対応ソリューション
- Authors: Le Liu, Bangguo Yu, Nynke Vellinga, Ming Cao,
- Abstract要約: 私たちは、ジェネレーティブAI駆動開発が重大な落とし穴となることを示しています。
ロボット応用においては、公平性に関する直観は一般的であるが、正確で実装可能な定義が欠落している。
ユーザデータのプライバシと協調して、ロボットによる意思決定と分析を行うためのユーティリティ対応公正度指標を提供する。
- 参考スコア(独自算出の注目度): 3.8242194933181657
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Complex decision-making by autonomous machines and algorithms could underpin the foundations of future society. Generative AI is emerging as a powerful engine for such transitions. However, we show that Generative AI-driven developments pose a critical pitfall: fairness concerns. In robotic applications, although intuitions about fairness are common, a precise and implementable definition that captures user utility and inherent data randomness is missing. Here we provide a utility-aware fairness metric for robotic decision making and analyze fairness jointly with user-data privacy, deriving conditions under which privacy budgets govern fairness metrics. This yields a unified framework that formalizes and quantifies fairness and its interplay with privacy, which is tested in a robot navigation task. In view of the fact that under legal requirements, most robotic systems will enforce user privacy, the approach shows surprisingly that such privacy budgets can be jointly used to meet fairness targets. Addressing fairness concerns in the creative combined consideration of privacy is a step towards ethical use of AI and strengthens trust in autonomous robots deployed in everyday environments.
- Abstract(参考訳): 自律機械とアルゴリズムによる複雑な意思決定は、将来の社会の基礎となるかもしれない。
このような移行のための強力なエンジンとして、ジェネレーティブAIが登場している。
しかし、生成的AI駆動開発は、フェアネスの懸念という致命的な落とし穴を生じさせる。
ロボットアプリケーションでは、公平性に関する直観は一般的であるが、ユーザユーティリティと固有のデータランダム性をキャプチャする正確で実装可能な定義が欠落している。
ここでは,プライバシ予算が公正度指標を管理する条件を導出し,ユーザデータプライバシと協調して公正度を判断・解析するための実用性を考慮した公正度指標を提案する。
これにより、ロボットナビゲーションタスクでテストされる公正性とプライバシとの相互作用を形式化し、定量化する統一されたフレームワークが得られる。
法的要件の下では、ほとんどのロボットシステムがユーザーのプライバシーを強制するという事実から、このアプローチは、このようなプライバシー予算が公正な目標を満たすために共同で使用できることを驚くほど示している。
プライバシの創造的な組み合わせによる考慮における公平性の懸念への対処は、AIの倫理的利用へのステップであり、日々の環境に展開される自律ロボットに対する信頼を強化するものだ。
関連論文リスト
- FAIRPLAI: A Human-in-the-Loop Approach to Fair and Private Machine Learning [0.09999629695552194]
機械学習システムの設計と展開に人間の監視を統合するフレームワークであるFAIRPLAIを紹介する。
Fair and Private Learning with Active Human Influenceは、人間の監視を機械学習システムの設計とデプロイに統合する。
Fairplaiは、常に強力なプライバシー保護を維持しながら、自動化されたベースラインに対する公正性の格差を減らしている。
論文 参考訳(メタデータ) (2025-11-11T19:07:46Z) - Adversary-Aware Private Inference over Wireless Channels [51.93574339176914]
ワイヤレスエッジデバイスにおけるAIベースのセンシングは、人工知能(AI)アプリケーションを大幅に強化する可能性がある。
機密性の高い個人情報は敵によって再構築できるため、プライバシー侵害のリスクを軽減するために特徴の変換が必要である。
本稿では,デバイスがモデルサーバに送信する前に抽出した特徴の変換を適用する,プライバシ保護型AIベースセンシングのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-10-23T13:02:14Z) - Towards Responsible AI: Advances in Safety, Fairness, and Accountability of Autonomous Systems [0.913755431537592]
この論文は、AIシステムの安全性、公正性、透明性、説明責任に関する知識を前進させる。
我々は,古典的決定論的遮蔽技術を拡張し,遅延観測に対する耐性を高める。
我々は,グループフェアネスを逐次決定設定で強制するための,新しい後処理手法であるフェアネスシールドを導入する。
論文 参考訳(メタデータ) (2025-06-11T21:30:02Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Designing for Responsible Trust in AI Systems: A Communication
Perspective [56.80107647520364]
我々は、MATCHと呼ばれる概念モデルを開発するために、技術に対する信頼に関するコミュニケーション理論と文献から引き出す。
私たちは、AIシステムの能力として透明性とインタラクションを強調します。
我々は、技術クリエーターが使用する適切な方法を特定するのに役立つ要件のチェックリストを提案する。
論文 参考訳(メタデータ) (2022-04-29T00:14:33Z) - SABER: Data-Driven Motion Planner for Autonomously Navigating
Heterogeneous Robots [112.2491765424719]
我々は、データ駆動型アプローチを用いて、異種ロボットチームをグローバルな目標に向けてナビゲートする、エンドツーエンドのオンラインモーションプランニングフレームワークを提案する。
モデル予測制御(SMPC)を用いて,ロボット力学を満たす制御入力を計算し,障害物回避時の不確実性を考慮した。
リカレントニューラルネットワークは、SMPC有限時間地平線解における将来の状態の不確かさを素早く推定するために用いられる。
ディープQ学習エージェントがハイレベルパスプランナーとして機能し、SMPCにロボットを望ましいグローバルな目標に向けて移動させる目標位置を提供する。
論文 参考訳(メタデータ) (2021-08-03T02:56:21Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z) - More Than Privacy: Applying Differential Privacy in Key Areas of
Artificial Intelligence [62.3133247463974]
差分プライバシーは、AIのプライバシー保護以上のことができることを示す。
また、セキュリティを改善し、学習を安定させ、公正なモデルを構築し、AIの選択領域にコンポジションを課すためにも使用できる。
論文 参考訳(メタデータ) (2020-08-05T03:07:36Z) - Getting Fairness Right: Towards a Toolbox for Practitioners [2.4364387374267427]
バイアスを意図せずに埋め込んで再現するAIシステムの潜在的なリスクは、マシンラーニング実践者や社会全体の注目を集めている。
本稿では,実践者が公正なAI実践を確実にするためのツールボックスのドラフトを提案する。
論文 参考訳(メタデータ) (2020-03-15T20:53:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。