論文の概要: færdXel: An Expert System for Danish Traffic Law
- arxiv url: http://arxiv.org/abs/2410.03560v1
- Date: Fri, 4 Oct 2024 16:07:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-02 21:29:56.794853
- Title: færdXel: An Expert System for Danish Traffic Law
- Title(参考訳): færdXel:デンマークの交通法の専門家システム
- Authors: Luís Cruz-Filipe, Jonas Vistrup,
- Abstract要約: faerdXelはデンマークの交通法分野における象徴的な推論のためのツールです。
本稿ではデンマークの交通法分野における象徴的推論ツールであるfaerdXelを紹介する。
- 参考スコア(独自算出の注目度): 0.8287206589886879
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present f{\ae}rdXel, a tool for symbolic reasoning in the domain of Danish traffic law. f{\ae}rdXel combines techniques from logic programming with a novel interface that allows users to navigate through its reasoning process, thereby ensuring the system's trustworthiness. A preliminary empirical evaluation indicates that this work is seen as very promising, and has the potential to become a foundation for real-world AI tools supporting professionals in the Danish legal sector.
- Abstract(参考訳): デンマークの交通法分野における象徴的推論ツール f{\ae}rdXel について述べる。
f{\ae}rdXelは、論理プログラミングの技法と新しいインターフェースを組み合わせることで、ユーザーは推論過程をナビゲートし、システムの信頼性を確保することができる。
予備的な実証的な評価は、この研究が非常に有望であると見なされ、デンマークの法務部門で専門家を支援する現実世界のAIツールの基礎になる可能性があることを示している。
関連論文リスト
- Data Analysis in the Era of Generative AI [56.44807642944589]
本稿では,AIを活用したデータ分析ツールの可能性について考察する。
我々は、大規模言語とマルチモーダルモデルの出現が、データ分析ワークフローの様々な段階を強化する新しい機会を提供する方法について検討する。
次に、直感的なインタラクションを促進し、ユーザ信頼を構築し、AI支援分析ワークフローを複数のアプリにわたって合理化するための、人間中心の設計原則を調べます。
論文 参考訳(メタデータ) (2024-09-27T06:31:03Z) - Symbolic Learning Enables Self-Evolving Agents [55.625275970720374]
エージェントシンボリックラーニング(エージェントシンボリックラーニング)(エージェントシンボリックラーニング)は、言語エージェントが自分自身で最適化できるための体系的なフレームワークである。
エージェント記号学習は、コネクショナリズム学習における2つの基本的なアルゴリズムを模倣することにより、言語エージェント内のシンボルネットワークを最適化するように設計されている。
我々は、標準ベンチマークと複雑な実世界のタスクの両方で概念実証実験を行う。
論文 参考訳(メタデータ) (2024-06-26T17:59:18Z) - Empowering Prior to Court Legal Analysis: A Transparent and Accessible Dataset for Defensive Statement Classification and Interpretation [5.646219481667151]
本稿では,裁判所の手続きに先立って,警察の面接中に作成された文の分類に適した新しいデータセットを提案する。
本稿では,直感的文と真偽を区別し,最先端のパフォーマンスを実現するための微調整DistilBERTモデルを提案する。
我々はまた、法律専門家と非専門主義者の両方がシステムと対話し、利益を得ることを可能にするXAIインターフェースも提示する。
論文 参考訳(メタデータ) (2024-05-17T11:22:27Z) - How fair are we? From conceptualization to automated assessment of fairness definitions [6.741000368514124]
MODNESSは、ソフトウェアシステムにおけるユーザ定義公正の概念に対するモデル駆動のアプローチである。
これらのカスタム定義に基づいて公平なアセスメントを実装するためにソースコードを生成する。
その結果、現在のアプローチのほとんどは、ユーザ定義の公平性の概念をサポートしていないことが明らかとなった。
論文 参考訳(メタデータ) (2024-04-15T16:46:17Z) - Capture the Flag: Uncovering Data Insights with Large Language Models [90.47038584812925]
本研究では,Large Language Models (LLMs) を用いてデータの洞察の発見を自動化する可能性について検討する。
そこで本稿では,データセット内の意味的かつ関連する情報(フラグ)を識別する能力を測定するために,フラグを捕捉する原理に基づく新しい評価手法を提案する。
論文 参考訳(メタデータ) (2023-12-21T14:20:06Z) - Explainable Authorship Identification in Cultural Heritage Applications:
Analysis of a New Perspective [48.031678295495574]
既存の汎用eXplainable Artificial Intelligence(XAI)技術のAIへの応用について検討する。
特に,3種類のAIdタスクにおける3種類のXAIテクニックの相対的メリットを評価した。
我々の分析によると、これらの技術は、説明可能なオーサシップの特定に向けて重要な第一歩を踏み出すが、まだ多くの作業が続けられている。
論文 参考訳(メタデータ) (2023-11-03T20:51:15Z) - Human-centered trust framework: An HCI perspective [1.6344851071810074]
この研究の理論的根拠は、現在の人工知能(AI)のユーザ信頼談話に基づいている。
我々は、AI設計におけるユーザ信頼の可能性を最大限に解き放つために、非専門家を導くためのフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-05T06:15:32Z) - Toward an Intelligent Tutoring System for Argument Mining in Legal Texts [0.2624902795082451]
ケースロー解析(キー引数要素の同定)を支援する適応環境(CABINET)を提案する。
非常に低い偽陽性率 (2.0-3.5%) で分析する際の潜在的な誤りを同定できることを示す。
論文 参考訳(メタデータ) (2022-10-24T22:31:02Z) - Constrained Reinforcement Learning for Robotics via Scenario-Based
Programming [64.07167316957533]
DRLをベースとしたエージェントの性能を最適化し,その動作を保証することが重要である。
本稿では,ドメイン知識を制約付きDRLトレーニングループに組み込む新しい手法を提案する。
我々の実験は、専門家の知識を活用するために我々のアプローチを用いることで、エージェントの安全性と性能が劇的に向上することを示した。
論文 参考訳(メタデータ) (2022-06-20T07:19:38Z) - LogiGAN: Learning Logical Reasoning via Adversarial Pre-training [58.11043285534766]
本稿では,言語モデルの論理的推論能力を向上させるために,教師なしの対人事前学習フレームワークLogiGANを提案する。
人間の学習におけるリフレクティブ思考の促進効果に着想を得て,逆生成検証アーキテクチャを用いて学習思考過程をシミュレートする。
LogiGANで事前トレーニングされたベースモデルと大規模言語モデルの両方で、12のデータセットで明らかなパフォーマンス改善が示されている。
論文 参考訳(メタデータ) (2022-05-18T08:46:49Z) - Symbolic AI for XAI: Evaluating LFIT Inductive Programming for Fair and
Explainable Automatic Recruitment [11.460075612587591]
我々は,与えられたブラックボックスシステムと同等の命題論理理論を学習するICP手法を提案する。
本稿では,この問題に対するLFITの表現性を示し,他の領域に適用可能なスキームを提案する。
論文 参考訳(メタデータ) (2020-12-01T09:36:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。