Actualmente María Vanina Martínez y Ricardo Rodriguez, profesores del Departamento de Computación, dictan la materia optativa “Aspectos éticos en inteligencia artificial”. Al mismo tiempo, en su rol de investigadores del ICC UBA-CONICET, están trabajando en diversas iniciativas para proponer regulaciones legales frente a los rápidos desarrollos de las herramientas de inteligencia artificial y sus consecuencias en la automatización de la toma de decisiones.
Hace más de 30 años, Judith Jarvis Thomson reflexionó en la revista The Yale Law Journal (publicación de la Facultad de Derecho de Yale) sobre algunas preguntas claves que estaban rondando desde principios del siglo XX en el conocimiento humano. La destacada jurista expuso la complejidad que supondría para la inteligencia artificial encontrar la solución de un dilema humano complejo. Imaginemos por un momento que una persona conduce un auto sin frenos. Ante él se bifurca el camino en dos: en el camino de la izquierda hay cinco personas, en el de la derecha sólo hay una. ¿Es lícito matar a una persona para salvar a otras cinco? ¿Y si en lugar de tomar la decisión un conductor humano, decide una máquina (vehículo autónomo), quién será el responsable de programar ese vehículo y con qué criterio lo hará?
Algunos de estos interesantes dilemas éticos se los están planteando dos profesores del Departamento de Computación, María Vanina Martínez y Ricardo Rodriguez, quienes están dictando por primera vez la materia optativa “Aspectos éticos en inteligencia artificial”. El propósito del curso es discutir la problemática y que los y las asistentes tomen conciencia del poder que tienen las herramientas de automatización sobre la sociedad y asuman una posición proactiva sobre las posibles soluciones o bien puedan generar documentos de trabajo para difundir entre el resto de la comunidad.
Según comentan los docentes de la materia, los recientes avances en computación en general, y muy en particular, en inteligencia artificial, nos ubican en el umbral de un nuevo punto de inflexión en la historia de la humanidad. Es probable que pronto confiemos la gestión de nuestro medio ambiente, economía, seguridad, infraestructura, producción de alimentos, atención médica y, en gran medida, incluso nuestras actividades personales, a sistemas informáticos artificialmente inteligentes.
“Me involucré en la temática desde hace unos años a partir de la participación de investigadores en IA reunidos en un congreso en Barcelona. Comencé a plantearme cuáles son los límites hasta donde nosotros como investigadores tenemos que involucrarnos para que la IA sea una herramienta que se use de la mejor manera posible”, puntualiza María Vanina Martínez, doctora en ciencias de la computación. La profesora e investigadora señala que la posibilidad de “delegar nuestra existencia” a sistemas cada vez más autónomos, que a través de algoritmos toman decisiones en nuestro lugar, plantea muchas preguntas complejas y preocupantes.
“Creo que no hay una conciencia de cuál es el estado real de avance en inteligencia artificial, de lo que los sistemas pueden hacer. Y por otro lado, una naturalización de los algoritmos que pueden tomar decisiones por nosotros, no sólo sobre la automatización del trabajo humano. Cuando pasan a ser decisiones críticas de Estado o que se relacionen directamente con el bienestar de la población, es importante que las herramientas funcionen correctamente y también entender cuáles son los datos de los que se alimentan las herramientas, de modo de evitar sesgos o discriminación hacia los potenciales beneficiarios de esas decisiones”, explica Martínez. Y uno de los ejemplos que cita es el sistema COMPAS, que se usa en algunos estados de los Estados Unidos para determinar si a un preso se le puede dar la libertad condicional o no y actualmente está funcionando con sesgos raciales (debido a que provienen de bases de datos alimentadas por años y años de toma de decisiones humanas que generan datos sesgados).
Por su parte, el profesor Ricardo Rodriguez aclara que algunas de las preguntas desde las que se inician las discusiones actuales, serían: ¿Cómo responderá la sociedad cuando los robots versátiles y los sistemas de aprendizaje automático desplacen a un espectro cada vez más amplio de trabajadores de carne y hueso? ¿Los beneficios de esta revolución tecnológica se distribuirán ampliamente o se acumularán para unos pocos afortunados? ¿Cómo podemos asegurarnos de que estos sistemas respeten nuestros principios éticos cuando toman decisiones a grandes velocidades y por razones que exceden nuestra capacidad de comprensión? ¿Qué derechos legales y responsabilidades, si las hay, debemos otorgarles?
“Todas las cuestiones de ética que estamos analizando en la materia, son cuestiones que ya existen en nuestra vida diaria sin las máquinas, desde la asignación del gasto público, un modelo crediticio o un sistema de apoyo a la toma de decisiones en salud, entre muchas otras. Pero que de alguna manera, al poner una computadora de por medio, volvemos a tomar conciencia o tratar de pensarlo desde otro punto de vista y plantear la necesidad de una regulación: que nuestros sistemas legales puedan evaluar, al menos, estos casos”, precisa Rodriguez.
En esta novedosa materia optativa, están cursando alrededor de 30 estudiantes con formaciones completamente heterogéneas. No sólo hay alumnos y alumnas de computación sino también de matemática, antropología, derecho, sociología y psicología, lo cual evidencia el abordaje transdisciplinario de la temática.
Iniciativas de Ética en IA
Ambos profesores se encuentran colaborando en diversos proyectos de Ética en IA:
- Martínez es integrante del Comité de Ética que funciona en el marco de la Secretaría de Ciencia, Tecnología e Innovación Productiva de la Nación.
- Rodriguez y Martínez participaron de un taller de ética para la definición del Plan Nacional de Inteligencia Artificial.
- Colaboran con el destacado profesor español Ramón Lopez de Mántaras, miembro del Comité Europeo de Ética & IA.
- Desde 2015 participan de la campaña “Stop Killer Robots”.
- Por último, forman parte de un grupo de trabajo en el Senado de la Nación, para la confección de una ley que resguarde las cuestiones éticas frente al avance de los desarrollos de IA.