論文の概要: Participatory Design to build better contact- and proximity-tracing apps
- arxiv url: http://arxiv.org/abs/2006.00432v1
- Date: Sun, 31 May 2020 04:30:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2023-05-17 20:42:56.387103
- Title: Participatory Design to build better contact- and proximity-tracing apps
- Title(参考訳): 接触・近接追跡アプリ開発のための参加型デザイン
- Authors: Abhishek Gupta (1 and 2), Tania De Gasperis (1 and 3) ((1) Montreal AI
Ethics Institute, (2) Microsoft, (3) OCAD University)
- Abstract要約: 本稿では,信頼を喚起するメカニズムとして参加型設計を提案し,その適用方法を探る。
また、我々は、開発におけるバザーモデルの役割を強調し、ソリューションを評価し、実証的な証拠でこのアプローチの価値を政策立案者や他の利害関係者に納得させるための量的および質的な指標で補完する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the push for contact- and proximity-tracing solutions as a means to
manage the spread of the pandemic, there is a distrust between the citizens and
authorities that are deploying these solutions. The efficacy of the solutions
relies on meeting a minimum uptake threshold which is hitting a barrier because
of a lack of trust and transparency in how these solutions are being developed.
We propose participatory design as a mechanism to evoke trust and explore how
it might be applied to co-create technological solutions that not only meet the
needs of the users better but also expand their reach to underserved and
high-risk communities. We also highlight the role of the bazaar model of
development and complement that with quantitative and qualitative metrics for
evaluating the solutions and convincing policymakers and other stakeholders in
the value of this approach with empirical evidence.
- Abstract(参考訳): パンデミックの広がりを管理する手段として、コンタクト・アンド・コネクティブ・トレーシング・ソリューションが推進される中、これらのソリューションを展開する市民と当局の間には不信感がある。
ソリューションの有効性は、これらのソリューションの開発方法に対する信頼の欠如と透明性のため、障壁にぶつかる最小の取り込みしきい値を満たすことに依存している。
我々は,信頼を喚起するメカニズムとして参加型設計を提案し,ユーザのニーズに合致するだけでなく,リスクの高いコミュニティにもリーチを広げる技術ソリューションを共同開発する上で,その適用可能性を検討する。
また、我々は、開発におけるバザーモデルの役割を強調し、ソリューションを評価し、実証的な証拠でこのアプローチの価値を政策立案者や他の利害関係者に納得させるための量的および質的な指標で補完する。
関連論文リスト
- Achieving Unanimous Consensus in Decision Making Using Multi-Agents [0.0]
本稿では,Large Language Models (LLMs) が一貫した合意に達するために構造化された議論を行う合理的エージェントとして機能する,新しい議論に基づくコンセンサス機構を提案する。
段階的なコンセンサスと複数ラウンドの議論プロセスを活用することで、決定的問題に対する全会一致と、優先順位付けされた決定と政策に対する格付けされた信頼の両立が保証される。
また、思考、幻覚、悪意あるモデルとノード、リソース消費、スケーラビリティなどの新しいアプローチで重要な課題に対処する。
論文 参考訳(メタデータ) (2025-04-02T21:02:54Z) - Causality Is Key to Understand and Balance Multiple Goals in Trustworthy ML and Foundation Models [91.24296813969003]
本稿では,機械学習に因果的手法を取り入れて,信頼性の高いMLの主要な原則間のトレードオフをナビゲートすることを提唱する。
我々は、信頼できるMLと基礎モデルの両方において、複数の競合する目標のバランスをとるためには、因果的アプローチが不可欠であると主張する。
論文 参考訳(メタデータ) (2025-02-28T14:57:33Z) - On the Trustworthiness of Generative Foundation Models: Guideline, Assessment, and Perspective [333.9220561243189]
Generative Foundation Models (GenFMs) がトランスフォーメーションツールとして登場した。
彼らの広く採用されていることは、次元の信頼に関する重要な懸念を提起する。
本稿では,3つの主要なコントリビューションを通じて,これらの課題に対処するための包括的枠組みを提案する。
論文 参考訳(メタデータ) (2025-02-20T06:20:36Z) - Agentic LLM Framework for Adaptive Decision Discourse [2.4919169815423743]
本研究では,実世界のエージェント型大規模言語モデル(LLM)フレームワークを紹介する。
従来の意思決定支援ツールとは異なり、このフレームワークは対話、トレードオフ探索、エージェント間の相互作用によって生成される創発的なシナジーを強調している。
その結果、第1次探索がいかに堅牢で公平なレコメンデーションパスを育むかが明らかとなった。
論文 参考訳(メタデータ) (2025-02-16T03:46:37Z) - Towards Trustworthy Retrieval Augmented Generation for Large Language Models: A Survey [92.36487127683053]
Retrieval-Augmented Generation (RAG)は、AIGC(AIGC)の課題に対処するために設計された高度な技術である。
RAGは信頼性と最新の外部知識を提供し、幻覚を減らし、幅広いタスクで関連するコンテキストを保証する。
RAGの成功と可能性にもかかわらず、最近の研究により、RAGパラダイムはプライバシーの懸念、敵対的攻撃、説明責任の問題など、新たなリスクももたらしていることが示されている。
論文 参考訳(メタデータ) (2025-02-08T06:50:47Z) - Know Where You're Uncertain When Planning with Multimodal Foundation Models: A Formal Framework [54.40508478482667]
認識と計画生成の不確実性を解消し、定量化し、緩和する包括的枠組みを提案する。
本稿では,知覚と意思決定の独特な性質に合わせた手法を提案する。
この不確実性分散フレームワークは, 変動率を最大40%削減し, タスク成功率をベースラインに比べて5%向上させることを示した。
論文 参考訳(メタデータ) (2024-11-03T17:32:00Z) - Confronting Conflicts to Yes: Untangling Wicked Problems with Open Design Systems [0.0]
本稿では、選択型共役分析(CBCA)を用いた構成的利害関係者評価手法を提案する。
共同作業の "yes" へのシフトを実証する
ズームアウトされた解空間は、エネルギー遷移を所定のものよりも複数のオプションで取り組むことができると結論付けている。
論文 参考訳(メタデータ) (2024-09-02T07:44:43Z) - Trust-Oriented Adaptive Guardrails for Large Language Models [9.719986610417441]
ガードレールは、有害または有害な応答を抑えることで、大きな言語モデル(LLM)が人間の価値と整合することを保証するように設計されている。
既存のガードレールには、さまざまなユーザグループのニーズを満たすための、十分に確立された方法論が欠如している。
ユーザ信頼度に基づいて,機密コンテンツへの動的アクセスを適度に行うための適応ガードレール機構を導入する。
論文 参考訳(メタデータ) (2024-08-16T18:07:48Z) - Enhancing Mutual Trustworthiness in Federated Learning for Data-Rich Smart Cities [29.951569327998133]
フェデレーション学習は、データリッチなスマートシティにおける、コラボレーションとプライバシ保護を約束する機械学習アプローチである。
ランダムなクライアント選択技術のような従来のアプローチは、システムの完全性にいくつかの脅威をもたらす。
本稿では,クライアントとサーバの双方の信頼ニーズを考慮して,フェデレート学習における相互信頼感に対処する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2024-05-01T08:49:22Z) - AntEval: Evaluation of Social Interaction Competencies in LLM-Driven
Agents [65.16893197330589]
大規模言語モデル(LLM)は、幅広いシナリオで人間の振る舞いを再現する能力を示した。
しかし、複雑なマルチ文字のソーシャルインタラクションを扱う能力については、まだ完全には研究されていない。
本稿では,新しいインタラクションフレームワークと評価手法を含むマルチエージェントインタラクション評価フレームワーク(AntEval)を紹介する。
論文 参考訳(メタデータ) (2024-01-12T11:18:00Z) - Bridging the gap: Towards an Expanded Toolkit for AI-driven Decision-Making in the Public Sector [6.693502127460251]
AIによる意思決定システムは、刑事司法、社会福祉、金融詐欺検出、公衆衛生などの分野に適用される。
これらのシステムは、機械学習(ML)モデルと公共セクターの意思決定の複雑な現実を整合させるという課題に直面している。
本稿では,データ側における分散シフトやラベルバイアス,過去の意思決定の影響,モデル出力側における競合する目標や人道支援など,不一致が発生する可能性のある5つの重要な課題について検討する。
論文 参考訳(メタデータ) (2023-10-29T17:44:48Z) - Attention Based Feature Fusion For Multi-Agent Collaborative Perception [4.120288148198388]
グラフアテンションネットワーク(GAT)の形での中間的協調認識ソリューションを提案する。
提案手法は,複数の連結エージェント間で交換される中間表現を融合するアテンションベースのアグリゲーション戦略を開発する。
このアプローチは、チャネルレベルと空間レベルの中間特徴写像における重要な領域を適応的に強調することにより、オブジェクト検出精度が向上する。
論文 参考訳(メタデータ) (2023-05-03T12:06:11Z) - On the Complexity of Adversarial Decision Making [101.14158787665252]
決定推定係数は, 相手の意思決定に対する後悔度を低く抑えるのに必要であり, 十分であることを示す。
我々は、決定推定係数を他のよく知られた複雑性尺度の変種に結びつける新しい構造結果を提供する。
論文 参考訳(メタデータ) (2022-06-27T06:20:37Z) - Designing for Responsible Trust in AI Systems: A Communication
Perspective [56.80107647520364]
我々は、MATCHと呼ばれる概念モデルを開発するために、技術に対する信頼に関するコミュニケーション理論と文献から引き出す。
私たちは、AIシステムの能力として透明性とインタラクションを強調します。
我々は、技術クリエーターが使用する適切な方法を特定するのに役立つ要件のチェックリストを提案する。
論文 参考訳(メタデータ) (2022-04-29T00:14:33Z) - Personalized multi-faceted trust modeling to determine trust links in
social media and its potential for misinformation management [61.88858330222619]
ソーシャルメディアにおけるピア間の信頼関係を予測するためのアプローチを提案する。
本稿では,データ駆動型多面信頼モデルを提案する。
信頼を意識したアイテムレコメンデーションタスクで説明され、提案したフレームワークを大規模なYelpデータセットのコンテキストで評価する。
論文 参考訳(メタデータ) (2021-11-11T19:40:51Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - A survey of algorithmic recourse: definitions, formulations, solutions,
and prospects [24.615500469071183]
我々は、自動意思決定システムによって不当に扱われる個人に対して、説明とレコメンデーションを提供するアルゴリズムの講義に焦点をあてる。
我々は、広範な文献レビューを行い、統一された定義、定式化、言論への解決策を提示することで、多くの著者の努力を一致させます。
論文 参考訳(メタデータ) (2020-10-08T15:15:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。