論文の概要: Advances in Automatically Rating the Trustworthiness of Text Processing
Services
- arxiv url: http://arxiv.org/abs/2302.09079v1
- Date: Sat, 4 Feb 2023 14:27:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-26 14:55:17.563352
- Title: Advances in Automatically Rating the Trustworthiness of Text Processing
Services
- Title(参考訳): テキスト処理サービスの信頼性の自動評価の進歩
- Authors: Biplav Srivastava, Kausik Lakkaraju, Mariana Bernagozzi, Marco
Valtorta
- Abstract要約: AIサービスは、データやモデル、あるいはユーザの変化を受けると、不安定な振る舞いを持つことが知られている。
消費者がAIのソースコードやトレーニングデータにアクセスできないブラックボックス設定でAIサービスを評価する現在のアプローチは限られている。
我々のアプローチは、食品産業における健康促進のための栄養ラベル付けの成功に触発され、独立した利害関係者の視点からAIサービスを信頼のために評価し、評価することを目指している。
- 参考スコア(独自算出の注目度): 9.696492590163016
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: AI services are known to have unstable behavior when subjected to changes in
data, models or users. Such behaviors, whether triggered by omission or
commission, lead to trust issues when AI works with humans. The current
approach of assessing AI services in a black box setting, where the consumer
does not have access to the AI's source code or training data, is limited. The
consumer has to rely on the AI developer's documentation and trust that the
system has been built as stated. Further, if the AI consumer reuses the service
to build other services which they sell to their customers, the consumer is at
the risk of the service providers (both data and model providers). Our
approach, in this context, is inspired by the success of nutritional labeling
in food industry to promote health and seeks to assess and rate AI services for
trust from the perspective of an independent stakeholder. The ratings become a
means to communicate the behavior of AI systems so that the consumer is
informed about the risks and can make an informed decision. In this paper, we
will first describe recent progress in developing rating methods for text-based
machine translator AI services that have been found promising with user
studies. Then, we will outline challenges and vision for a principled,
multi-modal, causality-based rating methodologies and its implication for
decision-support in real-world scenarios like health and food recommendation.
- Abstract(参考訳): AIサービスは、データ、モデル、あるいはユーザの変化を受けると不安定な振る舞いを持つことが知られている。
このような行動は、欠席や委任によって引き起こされたとしても、AIが人間と働くときの信頼の問題につながる。
消費者がAIのソースコードやトレーニングデータにアクセスできないブラックボックス設定でAIサービスを評価する現在のアプローチは限られている。
コンシューマはai開発者のドキュメンテーションに頼り、前述のようにシステムが構築されていることを信頼する必要がある。
さらに、AIコンシューマがサービスを再利用して顧客に販売する他のサービスを構築する場合、コンシューマはサービスプロバイダ(データとモデルプロバイダの両方)のリスクにさらされます。
この文脈での私たちのアプローチは、食品産業における健康促進のための栄養ラベル付けの成功にインスパイアされ、独立した利害関係者の視点からAIサービスの評価と評価を目指しています。
評価はAIシステムの行動を伝える手段となり、消費者がリスクを知らせ、情報的な決定を下すことができる。
本稿では,まず,ユーザ研究に期待できるテキストベースの機械翻訳aiサービスのための評価手法の開発動向について述べる。
次に、原則化されたマルチモーダルな因果評価手法の課題とビジョンと、健康や食品レコメンデーションといった現実のシナリオにおける意思決定支援の意義について概説する。
関連論文リスト
- Ethical AI in Retail: Consumer Privacy and Fairness [0.0]
小売業における人工知能(AI)の採用は、業界を大きく変革させ、よりパーソナライズされたサービスと効率的な運用を可能にした。
しかし、AI技術の急速な実装は、特に消費者プライバシと公正性に関する倫理的懸念を提起する。
本研究の目的は、小売業におけるAIアプリケーションの倫理的課題を分析し、競争力を維持しながらAI技術を倫理的に実装する方法を探究し、倫理的AIプラクティスに関する推奨を提供することである。
論文 参考訳(メタデータ) (2024-10-20T12:00:14Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Trust in AI: Progress, Challenges, and Future Directions [6.724854390957174]
私たちの日常生活における人工知能(AI)システムの利用の増加は、ユーザの視点からAIにおける信頼と不信の重要性を説明してくれます。
AIにおける信頼/不信は規制官の役割を担い、この拡散のレベルを著しく制御することができる。
論文 参考訳(メタデータ) (2024-03-12T20:26:49Z) - A Diachronic Perspective on User Trust in AI under Uncertainty [52.44939679369428]
現代のNLPシステムは、しばしば未分類であり、ユーザの信頼を損なう確実な誤った予測をもたらす。
賭けゲームを用いて,信頼を損なう事象に対するユーザの信頼の進化について検討する。
論文 参考訳(メタデータ) (2023-10-20T14:41:46Z) - Evaluating and Improving Value Judgments in AI: A Scenario-Based Study
on Large Language Models' Depiction of Social Conventions [5.457150493905063]
我々は,現代のAIサービスがユーザニーズにどのように対応しているかを評価し,さらに,大規模言語モデルによって反映された社会の描写を考察した。
本稿では,今後の機械的価値判断に応用可能な,価値調和シナリオにおける意思決定モデルを提案する。
本稿では,他の遠隔地を調査するためのツールとしてAIを利用する実践的アプローチを提唱する。
論文 参考訳(メタデータ) (2023-10-04T08:42:02Z) - Certification Labels for Trustworthy AI: Insights From an Empirical
Mixed-Method Study [0.0]
本研究は,有望なソリューションとしての認定ラベルを実証的に検討した。
ラベルがエンドユーザの信頼とAI使用意欲を大幅に向上させることができることを実証する。
しかし、認証ラベルに対するエンドユーザの好みと、AIの使用に対する信頼と意欲に対する影響は、高い評価のシナリオではより顕著であった。
論文 参考訳(メタデータ) (2023-05-15T09:51:10Z) - Out of Context: Investigating the Bias and Fairness Concerns of
"Artificial Intelligence as a Service" [6.824692201913679]
AI as a Service(AI as a Service)は、様々なプラグイン・アンド・プレイAIサービスやツールを提供する、急速に成長している市場です。
しかし、AIシステムは社会的影響を持つバイアスや不平等をカプセル化できることが知られている。
フェアネスの文脈に敏感な性質は、しばしばAIの「ワンサイズフィットオール」アプローチと相容れない。
論文 参考訳(メタデータ) (2023-02-02T22:32:10Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - Designing for Responsible Trust in AI Systems: A Communication
Perspective [56.80107647520364]
我々は、MATCHと呼ばれる概念モデルを開発するために、技術に対する信頼に関するコミュニケーション理論と文献から引き出す。
私たちは、AIシステムの能力として透明性とインタラクションを強調します。
我々は、技術クリエーターが使用する適切な方法を特定するのに役立つ要件のチェックリストを提案する。
論文 参考訳(メタデータ) (2022-04-29T00:14:33Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。