論文の概要: Applying Transparency in Artificial Intelligence based Personalization
Systems
- arxiv url: http://arxiv.org/abs/2004.00935v2
- Date: Fri, 21 Aug 2020 13:49:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-17 13:22:31.469635
- Title: Applying Transparency in Artificial Intelligence based Personalization
Systems
- Title(参考訳): 人工知能に基づくパーソナライズシステムにおける透明性の適用
- Authors: Laura Schelenz, Avi Segal, and Kobi Gal
- Abstract要約: 透明性の向上はパーソナライズベースのシステムにとって重要な目標である。
我々は、技術倫理とコンピュータ科学からの洞察を組み合わせて、機械生成のパーソナライゼーションのための透明性のベストプラクティスのリストを作成します。
これらのベストプラクティスに基づいて,アルゴリズムシステムの透明性を評価し,向上したいと考える設計者が使用するチェックリストを開発した。
- 参考スコア(独自算出の注目度): 5.671950073691286
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial Intelligence based systems increasingly use personalization to
provide users with relevant content, products, and solutions. Personalization
is intended to support users and address their respective needs and
preferences. However, users are becoming increasingly vulnerable to online
manipulation due to algorithmic advancements and lack of transparency. Such
manipulation decreases users' levels of trust, autonomy, and satisfaction
concerning the systems with which they interact. Increasing transparency is an
important goal for personalization based systems. Unfortunately, system
designers lack guidance in assessing and implementing transparency in their
developed systems.
In this work we combine insights from technology ethics and computer science
to generate a list of transparency best practices for machine generated
personalization. Based on these best practices, we develop a checklist to be
used by designers wishing to evaluate and increase the transparency of their
algorithmic systems. Adopting a designer perspective, we apply the checklist to
prominent online services and discuss its advantages and shortcomings. We
encourage researchers to adopt the checklist in various environments and to
work towards a consensus-based tool for measuring transparency in the
personalization community.
- Abstract(参考訳): 人工知能ベースのシステムは、ユーザに対して関連するコンテンツ、製品、ソリューションを提供するために、パーソナライズをますます利用します。
パーソナライゼーションは、ユーザをサポートし、それぞれのニーズと好みに対処することを目的としている。
しかし、アルゴリズムの進歩と透明性の欠如により、オンライン操作に対する脆弱性がますます高まっている。
このような操作は、ユーザーの対話するシステムに対する信頼度、自律性、満足度を低下させる。
透明性の向上はパーソナライズベースのシステムにとって重要な目標である。
残念ながら、システムデザイナは、開発システムにおける透明性の評価と実装に関するガイダンスを欠いている。
本研究では,技術倫理とコンピュータ科学の知見を組み合わせて,機械生成のパーソナライゼーションのための透明性のベストプラクティスのリストを作成する。
これらのベストプラクティスに基づいて,アルゴリズムシステムの透明性を評価し,向上させたい設計者が使用するチェックリストを開発した。
デザイナーパースペクティブを採用することで,チェックリストを著名なオンラインサービスに適用し,そのメリットと欠点について論じる。
我々は,様々な環境においてチェックリストの採用を奨励し,パーソナライゼーションコミュニティにおける透明性を測定するためのコンセンサスベースのツールを目指していく。
関連論文リスト
- Transparency, Privacy, and Fairness in Recommender Systems [0.19036571490366497]
このハビテーションは、(i)透明性と認知モデル、(ii)プライバシーと限定された嗜好情報、(iii)推薦システムにおける公正性と人気バイアスに関連する側面を精査する。
論文 参考訳(メタデータ) (2024-06-17T08:37:14Z) - A Room With an Overview: Towards Meaningful Transparency for the
Consumer Internet of Things [5.536922793483742]
本稿では,消費者IoTにおける透明性メカニズムの実践的側面について考察する。
スマートホームがより意味のある透明化を図り、ユーザーがより深く理解し、監視し、制御することを支援する。
論文 参考訳(メタデータ) (2024-01-19T13:00:36Z) - Through the Looking-Glass: Transparency Implications and Challenges in
Enterprise AI Knowledge Systems [3.7640559288894524]
視線ガラスのメタファーを提示し、それをAI知識システムを反射・歪曲するシステムとして概念化する。
我々は,AI知識システムの価値,すなわちシステム透過性,手続き的透明性,成果の透明性を実現するために必要な3つの透明性次元を同定する。
論文 参考訳(メタデータ) (2024-01-17T18:47:30Z) - Path To Gain Functional Transparency In Artificial Intelligence With
Meaningful Explainability [0.0]
AIシステムがますます高度化するにつれて、透明性と説明可能性の確保が重要になる。
透明なシステムにおけるユーザ中心のコンプライアンス・バイ・デザイン透過性の設計を提案する。
AIシステムにおける透明性に関連する課題を包括的に理解することで、説明責任、信頼性、社会的価値に整合したAIシステムの開発を促進することを目指している。
論文 参考訳(メタデータ) (2023-10-13T04:25:30Z) - Transparent Object Tracking with Enhanced Fusion Module [56.403878717170784]
我々は,我々の融合技術を用いて,透明物体追跡のための優れた結果を得る新しいトラッカーアーキテクチャを提案する。
我々の結果とコードの実装はhttps://github.com/kalyan05TOTEM.comで公開されます。
論文 参考訳(メタデータ) (2023-09-13T03:52:09Z) - Rethinking People Analytics With Inverse Transparency by Design [57.67333075002697]
我々は、デザインによる逆透過性(inverse transparency)と呼ぶ、労働分析のための新しい設計手法を提案する。
アーキテクチャの変更はコア機能を阻害することなく行われます。
我々は、デザインによる逆透明性は、受け入れられ、責任ある人々の分析を実現するための有望なアプローチである、と結論付けている。
論文 参考訳(メタデータ) (2023-05-16T21:37:35Z) - Users are the North Star for AI Transparency [111.5679109784322]
透明な人工知能システムを求める声が広まっているにもかかわらず、この用語は、厳密な政策の目的や具体的な研究ラインのオリエント化を表すために、多義的な意味に過大評価されている。
このことが起こる理由の1つは、AI透明性の明確な理想が、この仕事の体で実現されないことである。
透明性はユーザ中心で、ユーザ指向で、誠実です。
論文 参考訳(メタデータ) (2023-03-09T18:53:29Z) - FAT Forensics: A Python Toolbox for Implementing and Deploying Fairness,
Accountability and Transparency Algorithms in Predictive Systems [69.24490096929709]
FAT ForensicsというオープンソースのPythonパッケージを開発しました。
予測アルゴリズムの重要な公平性、説明可能性、透明性を検査することができる。
私たちのツールボックスは、予測パイプラインのすべての要素を評価することができます。
論文 参考訳(メタデータ) (2022-09-08T13:25:02Z) - Trustworthy Transparency by Design [57.67333075002697]
本稿では,ユーザ信頼とエクスペリエンスに関する研究を取り入れた,ソフトウェア設計のための透明性フレームワークを提案する。
私たちのフレームワークは、その設計に透明性を取り入れたソフトウェアの開発を可能にします。
論文 参考訳(メタデータ) (2021-03-19T12:34:01Z) - A framework for fostering transparency in shared artificial intelligence
models by increasing visibility of contributions [0.6850683267295249]
本稿では,AIシステム生成に使用されるプロセスパイプラインの全体的透明性をランキングできる定量化指標を導出する新しい手法を提案する。
メトリクスを計算するための方法論と、システムへの貢献の可視性に関する判断に使用できる基準の種類を評価する。
論文 参考訳(メタデータ) (2021-03-05T11:28:50Z) - Dimensions of Transparency in NLP Applications [64.16277166331298]
aiシステムに関する記述とコミュニケーションに関する幅広い透明性が望ましいと考えられている。
以前の研究は、システムの透明性向上とユーザの混乱の間にトレードオフが存在することを示唆している。
論文 参考訳(メタデータ) (2021-01-02T11:46:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。