論文の概要: Peeking Inside the Schufa Blackbox: Explaining the German Housing
Scoring System
- arxiv url: http://arxiv.org/abs/2311.11655v1
- Date: Mon, 20 Nov 2023 10:42:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-21 19:17:24.242039
- Title: Peeking Inside the Schufa Blackbox: Explaining the German Housing
Scoring System
- Title(参考訳): schufa blackboxの内部を覗く:ドイツの住宅スコアシステムを説明する
- Authors: Dean-Robin Kern, Gunnar Stevens, Erik Dethier, Sidra Naveed, Fatemeh
Alizadeh, Delong Du, Md Shajalal
- Abstract要約: ドイツにおけるSchufa住宅の採点システムに焦点をあて,ユーザ情報の必要性と説明に対する期待が,その役割によってどのように異なるかを検討する。
予備的な結果は,すべてのユーザに対して一般的なニーズがある一方で,役割の現実性や信用スコアがどのような影響をもたらすかによって,相反するニーズが存在することを示唆している。
- 参考スコア(独自算出の注目度): 4.782967012381978
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainable Artificial Intelligence is a concept aimed at making complex
algorithms transparent to users through a uniform solution. Researchers have
highlighted the importance of integrating domain specific contexts to develop
explanations tailored to end users. In this study, we focus on the Schufa
housing scoring system in Germany and investigate how users information needs
and expectations for explanations vary based on their roles. Using the
speculative design approach, we asked business information students to imagine
user interfaces that provide housing credit score explanations from the
perspectives of both tenants and landlords. Our preliminary findings suggest
that although there are general needs that apply to all users, there are also
conflicting needs that depend on the practical realities of their roles and how
credit scores affect them. We contribute to Human centered XAI research by
proposing future research directions that examine users explanatory needs
considering their roles and agencies.
- Abstract(参考訳): 説明可能な人工知能は、複雑なアルゴリズムを統一ソリューションを通じてユーザに透明にすることを目的とした概念である。
研究者たちは、エンドユーザに合わせた説明を開発するために、ドメイン固有のコンテキストを統合することの重要性を強調した。
本研究では,ドイツのschufaハウジングスコアシステムに着目し,利用者の役割に応じてユーザ情報と説明への期待がどう変化するかを検討する。
投機的設計手法を用いて,住宅信用スコアの説明を行うユーザインターフェースを,テナントと地主の両方の視点から,ビジネス情報系学生に求めた。
予備的な調査結果から,すべてのユーザに適用できる一般的なニーズはあるものの,その役割の実用的現実や,クレジットスコアがユーザに与える影響にも依存する,相反するニーズが存在することが示唆された。
我々は,人間中心のxai研究に貢献し,ユーザの役割やエージェントを考慮した説明的ニーズを検討する今後の研究指針を提案する。
関連論文リスト
- Tell me more: Intent Fulfilment Framework for Enhancing User Experiences in Conversational XAI [0.6333053895057925]
本稿では,ユーザのXAIニーズに対して,異なるタイプの説明が協調的にどのように適合するかを考察する。
Intent Fulfilment Framework (IFF)を導入した。
Explanation Experience Dialogue Model は IFF と "Explanation Followups" を統合し,対話型インターフェースを提供する。
論文 参考訳(メタデータ) (2024-05-16T21:13:43Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Notion of Explainable Artificial Intelligence -- An Empirical
Investigation from A Users Perspective [0.3069335774032178]
本研究は、ユーザ中心の説明可能なAIを調査し、研究コンテキストとしてレコメンデーションシステムを検討することを目的とする。
我々は,推薦システムに関する質的データを収集するために,フォーカスグループインタビューを行った。
以上の結果から,エンドユーザーはオンデマンドの補足情報による非技術的かつ適切な説明を望んでいることが明らかとなった。
論文 参考訳(メタデータ) (2023-11-01T22:20:14Z) - Interactive Explanation with Varying Level of Details in an Explainable
Scientific Literature Recommender System [0.5937476291232802]
本稿では,ユーザ中心の対話型説明モデルの採用を目標とし,さまざまな詳細レベルの説明を提供するとともに,ユーザのニーズや好みに基づいた説明の対話,制御,パーソナライズを可能にする。
本研究では,対話的説明の提供がユーザによる説明可能なRSの知覚に与える影響について質的研究を行った。
論文 参考訳(メタデータ) (2023-06-09T10:48:04Z) - Assisting Human Decisions in Document Matching [52.79491990823573]
我々は,意思決定者のパフォーマンスを向上する支援情報の種類を評価するためのプロキシマッチングタスクを考案した。
ブラックボックスモデルによる説明を提供することで,マッチング作業におけるユーザの精度が低下することが判明した。
一方,タスク固有のデシラタに密接に対応するように設計されたカスタムメソッドは,ユーザのパフォーマンス向上に有効であることが判明した。
論文 参考訳(メタデータ) (2023-02-16T17:45:20Z) - What Do End-Users Really Want? Investigation of Human-Centered XAI for
Mobile Health Apps [69.53730499849023]
説明可能なAI(XAI)を評価するために,ユーザ中心のペルソナ概念を提案する。
分析の結果,ユーザの人口統計や性格,説明のタイプ,影響説明の嗜好が示された。
私たちの洞察は、対話的で人間中心のXAIを実践的な応用に近づけます。
論文 参考訳(メタデータ) (2022-10-07T12:51:27Z) - Rethinking Explainability as a Dialogue: A Practitioner's Perspective [57.87089539718344]
医師、医療専門家、政策立案者に対して、説明を求めるニーズと欲求について尋ねる。
本研究は, 自然言語対話の形での対話的説明を, 意思決定者が強く好むことを示唆する。
これらのニーズを考慮して、インタラクティブな説明を設計する際に、研究者が従うべき5つの原則を概説する。
論文 参考訳(メタデータ) (2022-02-03T22:17:21Z) - Not all users are the same: Providing personalized explanations for
sequential decision making problems [25.24098967133101]
本研究では,エンドツーエンドの適応的説明生成システムを提案する。
最初は、エージェントが対話できるさまざまなタイプのユーザを学習することから始まる。
その後、ハエの型を特定し、それに応じて説明を調整する。
論文 参考訳(メタデータ) (2021-06-23T07:46:19Z) - Explainable Patterns: Going from Findings to Insights to Support Data
Analytics Democratization [60.18814584837969]
我々は,データストーリテリングの探索と作成において,レイユーザをサポートする新しいフレームワークであるExplainable Patterns (ExPatt)を提示する。
ExPattは、外部(テキスト)の情報ソースを使用して、観察または選択された発見の実用的な説明を自動的に生成します。
論文 参考訳(メタデータ) (2021-01-19T16:13:44Z) - One Explanation Does Not Fit All: The Promise of Interactive
Explanations for Machine Learning Transparency [21.58324172085553]
ブラックボックスシステムの透明性向上のための対話型機械学習の約束について論じる。
本稿では, 条件文を対話的に調整することで, 対実的説明をパーソナライズする方法を示す。
我々は、説明そのものとその内容の調整がより重要であると論じている。
論文 参考訳(メタデータ) (2020-01-27T13:10:12Z) - Deep Learning for Person Re-identification: A Survey and Outlook [233.36948173686602]
人物再識別(Re-ID)は、複数の重複しないカメラを通して興味ある人物を検索することを目的としている。
人物のRe-IDシステム開発に関わるコンポーネントを分離することにより、それをクローズドワールドとオープンワールドのセッティングに分類する。
論文 参考訳(メタデータ) (2020-01-13T12:49:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。