論文の概要: Dialogues with algorithms
- arxiv url: http://arxiv.org/abs/2309.10678v1
- Date: Tue, 19 Sep 2023 15:03:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-20 13:50:39.505879
- Title: Dialogues with algorithms
- Title(参考訳): アルゴリズムによる対話
- Authors: Joost J. Joosten
- Abstract要約: 我々は、法執行に使用されるルールベースのソフトウェアのためのループにおいて、人間に焦点をあてる。
法的ヒューマンエージェントとソフトウェアアプリケーションの重要な違いは、対話の可能性があることです。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In this short paper we focus on human in the loop for rule-based software
used for law enforcement. For example, one can think of software that computes
fines like tachograph software, software that prepares evidence like DNA
sequencing software or social profiling software to patrol in high-risk zones,
among others. An important difference between a legal human agent and a
software application lies in possible dialogues. A human agent can be
interrogated to motivate her decisions. Often such dialogues with software are
at the best extremely hard but mostly impossible. We observe that the absence
of a dialogue can sincerely violate civil rights and legal principles like, for
example, Transparency or Contestability. Thus, possible dialogues with legal
algorithms are at the least highly desirable. Futuristic as this may sound, we
observe that in various realms of formal methods, such dialogues are easily
obtainable. However, this triggers the usual tension between the expressibility
of the dialogue language and the feasibility of the corresponding computations.
- Abstract(参考訳): 本稿では,法執行に使用されるルールベースのソフトウェアについて,人間に焦点をあてる。
例えば、タコグラフソフトウェアのような罰金を計算するソフトウェア、dnaシークエンシングソフトウェアや社会的プロファイリングソフトウェアのような証拠を準備し、ハイリスクゾーンでパトロールするソフトウェアなどを考えることができる。
合法的な人間エージェントとソフトウェアアプリケーションの間の重要な違いは、可能な対話にある。
人間のエージェントは彼女の決定を動機付けるために尋問される。
このようなソフトウェアとの対話は、しばしば最も難しいが、ほとんど不可能である。
対話の欠如は、例えば透明性や矛盾性のような公民権や法的原則に誠実に違反する可能性がある。
したがって、法的アルゴリズムによる可能な対話は、少なくとも非常に望ましい。
形式的手法の様々な領域において、このような対話は容易に得ることができる。
しかし、これは対話言語の表現可能性と対応する計算の実現可能性との通常の緊張を引き起こす。
関連論文リスト
- Interactive Dialogue Agents via Reinforcement Learning on Hindsight Regenerations [58.65755268815283]
多くの実際の対話は対話的であり、つまりエージェントの発話が会話の相手に影響を与えるか、情報を引き出すか、意見を変えるかである。
この事実を利用して、既存の最適データを書き直し、拡張し、オフライン強化学習(RL)を介してトレーニングする。
実際の人間によるユーザ調査の結果、我々のアプローチは既存の最先端の対話エージェントを大きく上回っていることがわかった。
論文 参考訳(メタデータ) (2024-11-07T21:37:51Z) - Self-Directed Turing Test for Large Language Models [56.64615470513102]
チューリングテストは、自然言語の会話においてAIが人間のような振る舞いを示すことができるかどうかを調べる。
従来のチューリングテストでは、各参加者が1回に1つのメッセージだけを送信する厳格な対話形式を採用している。
本稿では,バーストダイアログ形式を用いた自己指示チューリングテストを提案する。
論文 参考訳(メタデータ) (2024-08-19T09:57:28Z) - Unsupervised Extraction of Dialogue Policies from Conversations [3.102576158218633]
本稿では,データセットから対話ポリシーを抽出する上で,Large Language Modelがいかに有効かを示す。
そこで我々は,制御可能かつ解釈可能なグラフベースの手法を用いて対話ポリシーを生成する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-06-21T14:57:25Z) - Measuring Entrainment in Spontaneous Code-switched Speech [3.9736028502700527]
我々は,人間間のコードスイッチによる自発音声における文字と音声のエントレメントのパターンについて検討した。
本研究は,コミュニケーション現象としてのエントレメントの「普遍的」性質に重要な意味を生じさせるものである。
論文 参考訳(メタデータ) (2023-11-13T19:41:34Z) - BotChat: Evaluating LLMs' Capabilities of Having Multi-Turn Dialogues [72.65163468440434]
本報告では,人間型マルチターンチャットのための既存大規模言語モデルの予備的評価を行う。
そこで我々は,ChatSEEDに基づくマルチターン対話を発話によって生成する大規模言語モデル(LLM)を提案する。
GPT-4は優れた品質の人型多元対話を生成できるが、その性能は著しく上回っている。
論文 参考訳(メタデータ) (2023-10-20T16:53:51Z) - Revisiting the DARPA Communicator Data using Conversation Analysis [0.0]
本稿では, コンピュータシステムにおける「改善の機会」を, 「誓い言葉」の形で乱用を探すことによって識別するアプローチについて述べる。
その前提は、人間がコンピュータに対して制裁として誓うことであり、したがって、言葉を誓うことは、システムが本来あるべきように振る舞わない点を表す。
より大きなテキストコーパスに依存しない計算言語学には代替的な未来があることを実証したい。
論文 参考訳(メタデータ) (2023-07-13T15:33:01Z) - Speech Aware Dialog System Technology Challenge (DSTC11) [12.841429336655736]
タスク指向ダイアログモデリングのほとんどの研究は、テキスト入力に基づいている。
TTS-Verbatim: テキスト入力をTTSシステムを用いて音声波形に変換し, (b) ヒューマン・ヴァーバティム: ユーザ入力を動詞入力, (c) ヒューマン・パラフレーズ化: ユーザ入力をパラフレーズ化した。
論文 参考訳(メタデータ) (2022-12-16T20:30:33Z) - Emotion Recognition in Conversation using Probabilistic Soft Logic [17.62924003652853]
会話における感情認識(英: emotion recognition in conversation、ERC)とは、2つ以上の発話を含む会話に焦点を当てた感情認識のサブフィールドである。
我々は,宣言的テンプレート言語である確率的ソフト論理(PSL)にアプローチを実装した。
PSLは、ニューラルモデルからPSLモデルへの結果の取り込みのための機能を提供する。
提案手法を最先端の純粋ニューラルネットワークERCシステムと比較した結果,約20%の改善が得られた。
論文 参考訳(メタデータ) (2022-07-14T23:59:06Z) - Towards Large-Scale Interpretable Knowledge Graph Reasoning for Dialogue
Systems [109.16553492049441]
よりスケーラブルで一般化可能な対話システムに知識推論機能を組み込む新しい手法を提案する。
我々の知識を最大限に活用するために、変圧器モデルが微分可能な知識グラフを解析して応答を生成するのは、これが初めてである。
論文 参考訳(メタデータ) (2022-03-20T17:51:49Z) - Rethinking Dialogue State Tracking with Reasoning [76.0991910623001]
本稿では, 対話状態の段階的追跡を, バックエンドデータの助けを借りて行うことを提案する。
実験の結果,MultiWOZ 2.1の連立信条精度は38.6%向上した。
論文 参考訳(メタデータ) (2020-05-27T02:05:33Z) - Will I Sound Like Me? Improving Persona Consistency in Dialogues through
Pragmatic Self-Consciousness [62.55060760615656]
一貫性に対処する最近のモデルは、しばしば追加の自然言語推論(NLI)ラベルでトレーニングするか、あるいは一貫性を維持するためにトレーニングされた追加モジュールを生成エージェントにアタッチする。
社会的認知と実用性に触発されて、私たちは既存の対話エージェントに、想像上のリスナーを通して、公的な自己意識を持たせました。
我々のアプローチは、Rational Speech Actsフレームワークに基づいて、会話エージェントに矛盾の発声を控えるように強制することができる。
論文 参考訳(メタデータ) (2020-04-13T08:16:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。