論文の概要: FairComp: Workshop on Fairness and Robustness in Machine Learning for
Ubiquitous Computing
- arxiv url: http://arxiv.org/abs/2309.12877v1
- Date: Fri, 22 Sep 2023 14:04:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-25 14:19:06.920524
- Title: FairComp: Workshop on Fairness and Robustness in Machine Learning for
Ubiquitous Computing
- Title(参考訳): FairComp:ユビキタスコンピューティングのための機械学習における公正性とロバスト性に関するワークショップ
- Authors: Sofia Yfantidou and Dimitris Spathis and Marios Constantinides and
Tong Xia and Niels van Berkel
- Abstract要約: ユビキタスコンピューティング(UbiComp)の研究成果が倫理的かつ公正であることを保証するにはどうすればいいのか?
本ワークショップは,ユビコン研究の公正性とその社会的,技術的,法的意味について論じることを目的としている。
- 参考スコア(独自算出の注目度): 18.462486016926448
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: How can we ensure that Ubiquitous Computing (UbiComp) research outcomes are
both ethical and fair? While fairness in machine learning (ML) has gained
traction in recent years, fairness in UbiComp remains unexplored. This workshop
aims to discuss fairness in UbiComp research and its social, technical, and
legal implications. From a social perspective, we will examine the relationship
between fairness and UbiComp research and identify pathways to ensure that
ubiquitous technologies do not cause harm or infringe on individual rights.
From a technical perspective, we will initiate a discussion on data practices
to develop bias mitigation approaches tailored to UbiComp research. From a
legal perspective, we will examine how new policies shape our community's work
and future research. We aim to foster a vibrant community centered around the
topic of responsible UbiComp, while also charting a clear path for future
research endeavours in this field.
- Abstract(参考訳): ユビキタスコンピューティング(UbiComp)の研究成果が倫理的かつ公正であることを保証するにはどうすればいいのか?
近年、機械学習(ml)の公平性が注目されているが、ubicompの公平性は未調査のままである。
本ワークショップは,ユビコン研究の公正性とその社会的,技術的,法的意味について議論することを目的とする。
社会的観点から、公正性とユビコン研究の関係を調べ、ユビキタステクノロジーが個人の権利を害したり侵害したりしないようにするための道筋を特定する。
技術的観点から、UbiCompリサーチに適したバイアス緩和アプローチを開発するために、データプラクティスに関する議論を開始する。
法的観点からは,新しい政策がコミュニティの仕事や今後の研究をどのように形作るかを検討する。
我々は、責任あるUbiCompのトピックを中心とした活気あるコミュニティを育成するとともに、この分野における今後の研究課題の明確な道筋を図示することを目的としている。
関連論文リスト
- Articulation Work and Tinkering for Fairness in Machine Learning [5.4773558295476885]
本稿では,コンピュータ科学と学際研究(SOI)の公正なAI分野における緊張関係について検討する。
公正なAIの場合、有効な研究に必要なタスク、リソース、アクターを分析します。
CS研究者はある程度SOI研究に携わるが、組織的条件、調音作業、社会世界のあいまいさはSOI研究の実施可能性を制限する。
論文 参考訳(メタデータ) (2024-07-23T14:11:12Z) - What Can Natural Language Processing Do for Peer Review? [173.8912784451817]
現代の科学ではピアレビューが広く使われているが、それは難しく、時間がかかり、エラーを起こしやすい。
ピアレビューに関わるアーティファクトは大部分がテキストベースであるため、自然言語処理はレビューを改善する大きな可能性を秘めている。
筆者らは、原稿提出からカメラ対応リビジョンまでの各工程について詳述し、NLP支援の課題と機会について論じる。
論文 参考訳(メタデータ) (2024-05-10T16:06:43Z) - Human-in-the-loop Fairness: Integrating Stakeholder Feedback to Incorporate Fairness Perspectives in Responsible AI [4.0247545547103325]
公正は人工知能(AI)を用いたリスクの高い意思決定への関心が高まっている
普遍的に受け入れられる公正度尺度はなく、公正性は文脈依存であり、公正と見なされるものに関して矛盾する視点があるかもしれない。
私たちの作業は、ステークホルダーが特定の決定インスタンスとその公正性に関する結果に対してフィードバックをすることができるアプローチに従っています。
論文 参考訳(メタデータ) (2023-12-13T11:17:29Z) - On Responsible Machine Learning Datasets with Fairness, Privacy, and Regulatory Norms [56.119374302685934]
AI技術の信頼性に関する深刻な懸念があった。
機械学習とディープラーニングのアルゴリズムは、開発に使用されるデータに大きく依存する。
本稿では,責任あるルーブリックを用いてデータセットを評価するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-24T14:01:53Z) - Human-Centered Responsible Artificial Intelligence: Current & Future
Trends [76.94037394832931]
近年、CHIコミュニティは人間中心のレスポンシブル人工知能の研究において著しい成長を遂げている。
この研究はすべて、人権と倫理に根ざしたまま、人類に利益をもたらすAIを開発し、AIの潜在的な害を減らすことを目的としている。
本研究グループでは,これらのトピックに関心のある学術・産業の研究者を集結させ,現在の研究動向と今後の研究動向を地図化することを目的とする。
論文 参考訳(メタデータ) (2023-02-16T08:59:42Z) - Developing a Philosophical Framework for Fair Machine Learning: Lessons
From The Case of Algorithmic Collusion [0.0]
機械学習アルゴリズムが新しい文脈に適用されるにつれて、結果の害と不正は質的に異なる。
フェアネスのメトリクスと定義を開発する機械学習における既存の研究パラダイムは、これらの質的に異なる種類の不正を考慮できない。
本稿では,公正度指標の開発と適用を目指す機械学習の研究者や実践者を対象とした倫理的枠組みを提案する。
論文 参考訳(メタデータ) (2022-07-05T16:21:56Z) - Fairness in Recommender Systems: Research Landscape and Future
Directions [119.67643184567623]
本稿は,近年の地域におけるフェアネスの概念と概念について概観する。
この分野での研究が現在どのように行われているのかを概観する。
全体として、最近の研究成果の分析は、ある研究のギャップを示している。
論文 参考訳(メタデータ) (2022-05-23T08:34:25Z) - A Framework for Fairness: A Systematic Review of Existing Fair AI
Solutions [4.594159253008448]
公正性の研究の大部分は、機械学習の実践者がアルゴリズムを設計しながらバイアスを監査するために使用できるツールの開発に費やされている。
実際には、これらの公平性ソリューションの応用例が欠如している。
このレビューでは、定義されたアルゴリズムバイアス問題と提案された公正解空間の詳細な概要について述べる。
論文 参考訳(メタデータ) (2021-12-10T17:51:20Z) - Representative & Fair Synthetic Data [68.8204255655161]
公平性制約を自己監督学習プロセスに組み込むためのフレームワークを提示する。
私たちはuci成人国勢調査データセットの代表者および公正版を作成します。
我々は、代表的かつ公正な合成データを将来有望なビルディングブロックとみなし、歴史的世界ではなく、私たちが生きようとしている世界についてアルゴリズムを教える。
論文 参考訳(メタデータ) (2021-04-07T09:19:46Z) - Descriptive AI Ethics: Collecting and Understanding the Public Opinion [10.26464021472619]
本研究では、規範的および記述的研究が相互補完できる混合AI倫理モデルを提案する。
我々は、AIシステムの展開に対する楽観的見解と悲観的見解のギャップを埋めることにその影響について論じる。
論文 参考訳(メタデータ) (2021-01-15T03:46:27Z) - How Does NLP Benefit Legal System: A Summary of Legal Artificial
Intelligence [81.04070052740596]
法律人工知能(Legal AI)は、人工知能、特に自然言語処理の技術を適用して、法的領域におけるタスクに役立てることに焦点を当てている。
本稿では,LegalAIにおける研究の歴史,現状,今後の方向性について紹介する。
論文 参考訳(メタデータ) (2020-04-25T14:45:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。