論文の概要: Algorithmic Identity Based on Metaparameters: A Path to Reliability, Auditability, and Traceability
- arxiv url: http://arxiv.org/abs/2601.16234v1
- Date: Wed, 21 Jan 2026 07:35:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-26 14:27:27.353965
- Title: Algorithmic Identity Based on Metaparameters: A Path to Reliability, Auditability, and Traceability
- Title(参考訳): メタパラメータに基づくアルゴリズム的アイデンティティ:信頼性、聴取性、トレーサビリティへの道
- Authors: Juliao Braga, Percival Henriques, Juliana C. Braga, Itana Stiubiener,
- Abstract要約: アルゴリズムの利用は、医療、司法、財務、教育など、さまざまな分野にわたって増加している。
本稿では,Digital Object Identifier (DOI) によるアルゴリズムの同定の可能性について検討する。
DOIの使用は、アルゴリズムの起源の追跡を促進し、監査を可能にし、バイアスを防止し、研究を促進し、倫理的考察を強化する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The use of algorithms is increasing across various fields such as healthcare, justice, finance, and education. This growth has significantly accelerated with the advent of Artificial Intelligence (AI) technologies based on Large Language Models (LLMs) since 2022. This expansion presents substantial challenges related to accountability, ethics, and transparency. This article explores the potential of the Digital Object Identifier (DOI) to identify algorithms, aiming to enhance accountability, transparency, and reliability in their development and application, particularly in AI agents and multimodal LLMs. The use of DOIs facilitates tracking the origin of algorithms, enables audits, prevents biases, promotes research reproducibility, and strengthens ethical considerations. The discussion addresses the challenges and solutions associated with maintaining algorithms identified by DOI, their application in API security, and the proposal of a cryptographic authentication protocol.
- Abstract(参考訳): アルゴリズムの利用は、医療、司法、財務、教育など、さまざまな分野にわたって増加している。
この成長は、2022年以来、Large Language Models (LLMs)に基づく人工知能(AI)技術の出現によって著しく加速している。
この拡張は、説明責任、倫理、透明性に関する重大な課題を提示している。
本稿では,Digital Object Identifier(DOI)がアルゴリズムを識別し,特にAIエージェントやマルチモーダルLLMにおいて,開発およびアプリケーションにおける説明責任,透明性,信頼性を高めることを目的とした可能性について考察する。
DOIの使用は、アルゴリズムの起源の追跡を促進し、監査を可能にし、バイアスを防止し、研究の再現性を促進し、倫理的考察を強化する。
この議論は、DOIが特定したアルゴリズムの維持、APIセキュリティの応用、および暗号化認証プロトコルの提案に関連する課題と解決策に対処する。
関連論文リスト
- Does Machine Unlearning Truly Remove Knowledge? [80.83986295685128]
本研究では,3つのベンチマークデータセット,6つのアンラーニングアルゴリズム,および5つのプロンプトベースの監査手法からなる,アンラーニング評価のための総合的な監査フレームワークを提案する。
異なるアンラーニング戦略の有効性とロバスト性を評価する。
論文 参考訳(メタデータ) (2025-05-29T09:19:07Z) - A Framework for Cryptographic Verifiability of End-to-End AI Pipelines [0.8075866265341175]
本稿では,AIパイプラインの完全検証,鍵コンポーネントの同定,既存の暗号手法の解析を行うフレームワークを提案する。
このフレームワークは、AI生成資産と共に暗号証明を提供することで、誤情報に対処するために使用することができる。
論文 参考訳(メタデータ) (2025-03-28T16:20:57Z) - An Overview of Large Language Models for Statisticians [109.38601458831545]
大規模言語モデル(LLM)は人工知能(AI)の変換ツールとして登場した。
本稿では, 統計学者がLLMの開発に重要な貢献できる可能性について考察する。
我々は不確実性定量化、解釈可能性、公正性、プライバシー、透かし、モデル適応といった問題に焦点を当てる。
論文 参考訳(メタデータ) (2025-02-25T03:40:36Z) - Computational Safety for Generative AI: A Signal Processing Perspective [65.268245109828]
計算安全性は、GenAIにおける安全性の定量的評価、定式化、研究を可能にする数学的枠組みである。
ジェイルブレイクによる悪意のあるプロンプトを検出するために, 感度解析と損失景観解析がいかに有効かを示す。
我々は、AIの安全性における信号処理の鍵となる研究課題、機会、そして重要な役割について論じる。
論文 参考訳(メタデータ) (2025-02-18T02:26:50Z) - algoTRIC: Symmetric and asymmetric encryption algorithms for Cryptography -- A comparative analysis in AI era [0.0]
本稿では、対称暗号(SE)と非対称暗号(AE)のアルゴリズムの比較分析を行う。
AI駆動環境におけるセンシティブな情報の確保における彼らの役割に焦点を当てている。
論文は、暗号化アルゴリズムがAIの時代に取り組む必要があるというセキュリティ上の懸念に対処することで締めくくっている。
論文 参考訳(メタデータ) (2024-12-12T16:25:39Z) - Building Intelligence Identification System via Large Language Model Watermarking: A Survey and Beyond [35.13949723065787]
大規模言語モデル(LLM)は多種多様な産業に統合され、不正な複製と誤用により重大なセキュリティリスクが生じる。
本稿では,識別過程を体系化し,より正確でカスタマイズされた透かしを実現する相互情報理論に基づく数学的枠組みを提案する。
論文 参考訳(メタデータ) (2024-07-15T07:20:02Z) - Generative AI for Secure Physical Layer Communications: A Survey [80.0638227807621]
Generative Artificial Intelligence(GAI)は、AIイノベーションの最前線に立ち、多様なコンテンツを生成するための急速な進歩と非並行的な能力を示す。
本稿では,通信ネットワークの物理層におけるセキュリティ向上におけるGAIの様々な応用について,広範な調査を行う。
私たちは、物理的レイヤセキュリティの課題に対処する上で、GAIの役割を掘り下げ、通信の機密性、認証、可用性、レジリエンス、整合性に重点を置いています。
論文 参考訳(メタデータ) (2024-02-21T06:22:41Z) - Mathematical Algorithm Design for Deep Learning under Societal and
Judicial Constraints: The Algorithmic Transparency Requirement [65.26723285209853]
計算モデルにおける透過的な実装が実現可能かどうかを分析するための枠組みを導出する。
以上の結果から,Blum-Shub-Smale Machinesは,逆問題に対する信頼性の高い解法を確立できる可能性が示唆された。
論文 参考訳(メタデータ) (2024-01-18T15:32:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。