論文の概要: ONTrust: A Reference Ontology of Trust
- arxiv url: http://arxiv.org/abs/2602.07662v1
- Date: Sat, 07 Feb 2026 18:47:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:24.746773
- Title: ONTrust: A Reference Ontology of Trust
- Title(参考訳): ONTrust: 信頼の基準オントロジー
- Authors: Glenda Amaral, Tiago Prince Sales, Riccardo Baratella, Daniele Porello, Renata Guizzardi, Giancarlo Guizzardi,
- Abstract要約: 本論文は,信頼に確固たる存在論的基盤を提供する長期研究プログラムの成果である。
信頼の基準オントロジー(ONTrust)は、統一基本オントロジーに基づいて開発され、オントUMLで規定されている。
ONTrustは、信頼の概念とその異なるタイプを公式に特徴づけ、信頼に影響を与えるさまざまな要因を記述し、また、信頼関係からリスクがどのように出現するかを説明する。
- 参考スコア(独自算出の注目度): 1.068745732421904
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Trust has stood out more than ever in the light of recent innovations. Some examples are advances in artificial intelligence that make machines more and more humanlike, and the introduction of decentralized technologies (e.g. blockchains), which creates new forms of (decentralized) trust. These new developments have the potential to improve the provision of products and services, as well as to contribute to individual and collective well-being. However, their adoption depends largely on trust. In order to build trustworthy systems, along with defining laws, regulations and proper governance models for new forms of trust, it is necessary to properly conceptualize trust, so that it can be understood both by humans and machines. This paper is the culmination of a long-term research program of providing a solid ontological foundation on trust, by creating reference conceptual models to support information modeling, automated reasoning, information integration and semantic interoperability tasks. To address this, a Reference Ontology of Trust (ONTrust) was developed, grounded on the Unified Foundational Ontology and specified in OntoUML, which has been applied in several initiatives, to demonstrate, for example, how it can be used for conceptual modeling and enterprise architecture design, for language evaluation and (re)design, for trust management, for requirements engineering, and for trustworthy artificial intelligence (AI) in the context of affective Human-AI teaming. ONTrust formally characterizes the concept of trust and its different types, describes the different factors that can influence trust, as well as explains how risk emerges from trust relations. To illustrate the working of ONTrust, the ontology is applied to model two case studies extracted from the literature.
- Abstract(参考訳): 信頼は近年のイノベーションに照らされ、これまでになく際立っている。
例えば、マシンをますます人間らしくする人工知能の進歩や、新たな形式の(分散化された)信頼を生み出す分散型テクノロジ(例えばブロックチェーン)の導入などがある。
これらの新たな開発は、製品やサービスの供給を改善し、個人的、集団的幸福に貢献する可能性がある。
しかし、彼らの養子縁組は信頼に大きく依存している。
信頼に足るシステムを構築するためには、新たな信頼形態のための法、規制、適切なガバナンスモデルを定義するとともに、人間と機械の両方で理解できるように、信頼を適切に概念化する必要がある。
本稿では,情報モデリング,自動推論,情報統合,セマンティック・インターオペラビリティ・タスクをサポートするための参照概念モデルを作成することによって,信頼に関する確かな存在論的基盤を提供する長期的な研究プログラムの成因である。
この問題を解決するために、信頼の基準オントロジー(ONTrust)が開発され、統一基礎オントロジーに基づいてOntoUMLで規定され、いくつかのイニシアチブで適用され、例えば、言語評価や(再)設計、信頼管理、要求工学、感情的AIチームにおける信頼に値する人工知能(AI)などにおいて、概念モデリングやエンタープライズアーキテクチャ設計にどのように使用できるかを実証した。
ONTrustは、信頼の概念とその異なるタイプを公式に特徴づけ、信頼に影響を与えるさまざまな要因を記述し、また、信頼関係からリスクがどのように出現するかを説明する。
OnTrustの動作を説明するために,本論文から抽出した2つのケーススタディのモデル化にオントロジーを適用した。
関連論文リスト
- Revisiting Trust in the Era of Generative AI: Factorial Structure and Latent Profiles [5.109743403025609]
信頼は、人々が人工知能(AI)を採用し、どのように依存するかを形作る最も重要な要素の1つです。
既存の研究の多くは、システムの信頼性、正確性、使いやすさに重点を置いて、機能の観点から信頼度を測定している。
本研究では,GenAIにおける信頼の合理性と関係性の両方を捉えるための新しい尺度であるHuman-AI Trust Scale(HAITS)を導入し,検証する。
論文 参考訳(メタデータ) (2025-10-11T12:39:53Z) - Ties of Trust: a bowtie model to uncover trustor-trustee relationships in LLMs [1.1149261035759372]
大規模言語モデル(LLM)における信頼の概念化と定式化のためのボウイモデルを提案する。
コアコンポーネントは、信頼者と信頼者、そしてそれらの複雑な関係を結び付けることによって、信頼を包括的に探求する。
我々はこれらの関係を、提案されたボウティーモデルと、その社会技術エコシステムの範囲内で明らかにする。
論文 参考訳(メタデータ) (2025-06-11T11:42:52Z) - Zero-Trust Foundation Models: A New Paradigm for Secure and Collaborative Artificial Intelligence for Internet of Things [61.43014629640404]
Zero-Trust Foundation Models (ZTFM)は、ゼロトラストセキュリティの原則をIoT(Internet of Things)システムの基盤モデル(FM)のライフサイクルに組み込む。
ZTFMは、分散、異質、潜在的に敵対的なIoT環境にわたって、セキュアでプライバシ保護のAIを可能にする。
論文 参考訳(メタデータ) (2025-05-26T06:44:31Z) - On the Need to Rethink Trust in AI Assistants for Software Development: A Critical Review [16.774993642353724]
信頼は人間の意思決定とコラボレーションの基本的な概念である。
ソフトウェア工学の記事は、しばしば非公式に信頼という用語を使う。
関連する規律は、一般的に彼らの方法論と結果を確立された信頼モデルに組み込む。
論文 参考訳(メタデータ) (2025-04-16T19:52:21Z) - On the Trustworthiness of Generative Foundation Models: Guideline, Assessment, and Perspective [377.2483044466149]
Generative Foundation Models (GenFMs) がトランスフォーメーションツールとして登場した。
彼らの広く採用されていることは、次元の信頼に関する重要な懸念を提起する。
本稿では,3つの主要なコントリビューションを通じて,これらの課題に対処するための包括的枠組みを提案する。
論文 参考訳(メタデータ) (2025-02-20T06:20:36Z) - Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and
Goals of Human Trust in AI [55.4046755826066]
我々は、社会学の対人信頼(すなわち、人間の信頼)に着想を得た信頼のモデルについて議論する。
ユーザとAIの間の信頼は、暗黙的あるいは明示的な契約が保持する信頼である。
我々は、信頼できるAIの設計方法、信頼が浮かび上がったかどうか、保証されているかどうかを評価する方法について論じる。
論文 参考訳(メタデータ) (2020-10-15T03:07:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。