Cargando Eventos

Titulo: Explicaciones usando Argumentación y Lógica Rebatible.

Director: Ricardo Rodriguez.

Co-Directores: Madalina Croitoru y Pierre Bisquert

Jurados: Vanina Martinez y Santiago Figuera

 

Resumen: Este trabajo buscara contestar la siguiente pregunta: «Que es una buena explicación en el
contexto de un sistema de argumentación y l ógicas rebatibles (defeasible logics)?».
Los sistemas de argumentación [1] buscan modelar información contradictoria de forma
abstracta mediante grafos dirigidos. Concretamente, la información es modelada como nodos
y las contradicciones como ejes en la estructura.

Por otro lado, las lógicas rebatibles [2] permiten modelar bases de conocimiento compuestas
de reglas estrictas y no-estrictas. Mediante este tipo de razonamiento, es posible razonar
en contextos contradictorios.

Un grafo de declaraciones (statement graph) [3] es una estructura que combina distintas
nociones de las dos previamente mencionadas. En particular, modela la información como
nodos en un grafo, los cuales contienen formulas expresadas vía lógicas rebatibles. Este grafo
utiliza dos tipos de ejes; uno para indicar soporte (cuando la conclusión de una fórmula justifica
la premisa de la otra), y otro para indicar contradicción (cuando la conclusión de una fórmula
contradice, desde el punto de vista l ógico, la premisa de la otra). Este modelo permite extraer
conclusiones de una forma similar a la de otros sistemas de argumentación.

Uno de los principales problemas con estos tipos de estructuras es que suelen ser de un
tamaño prohibitivo desde el punto de vista explicativo, lo cual produce que las conclusiones
sean difíciles de entender para un ser humano.

En este trabajo nos proponemos construir un marco teórico para proveer explicaciones para los
sistemas de argumentación y grafos de declaraciones, de tal manera de minimizar la información
necesaria para las justificaciones y priorizar los aspectos más importantes del proceso de razonamiento.

Por estos motivos, realizaremos un estudio del concepto de explicación desde el punto de vista de las
ciencias cognitivas, las ciencias de la computación y de la inteligencia artificial [4], para luego proveer
un modelo que refleje las conclusiones a las que lleguemos.

Referencias:

[1] Phan Minh Dung. On the acceptability of arguments and its fundamental role in nonmonotonic reasoning, logic programming and n-person games. Artificial intelligence, 77(2):321–357, 1995.
[2] Grigoris Antoniou, David Billington, Guido Governatori, and Michael J Maher. A flexible
framework for defeasible logics. In AAAI/IAAI, pages 405–410, 2000.
[3] Abdelraouf Hecham, Pierre Bisquert, and Madalina Croitoru. On a flexible representation for defeasible reasoning variants. In Proceedings of the 17th International Conference on Autonomous Agents and MultiAgent Systems, pages 1123–1131. International Foundation for Autonomous Agents and Multiagent Systems, 2018.
[4] Tim Miller. Explanation in artificial intelligence: Insights from the social sciences. Artificial Intelligence, 2018.