Para el experto legal en materia tecnológica Moisés Barrio, la regulación jurídica es el gran reto del mercado de inteligencia artificial este 2020. Aunque son muchas las compañías que ya han desarrollado unos principios éticos para su uso y desarrollo (por ejemplo, las grandes tecnológicas como Microsoft, IBM o Google) y el mercado, como apuntan los analistas de IDG Research, tiende a la autorregulación en este aspecto, Barrio cree que esto no es suficiente. “El enfoque ético ha sido un primer paso pero es insuficiente”, espeta, recordando que las normas éticas no tienen garantías jurídicas y que si se incumplen no implican sanciones, multas o penas de prisión.
La Comisión Europea está trabajando en un documento para la regulación jurídica de la inteligencia artificial que debería estar terminado este mes de febrero. Algunos de los aspectos que baraja como técnicas regulatorias son el etiquetado voluntario, requisitos sectoriales para la administración pública y el reconocimiento facial; requisitos obligatorios basados en el riesgo para aplicaciones de alto riesgo, seguridad y responsabilidad y gobernanza.
A principios de este mismo mes Margrethe Vestager, vicepresidenta de la Comisión Europea y comisaria de Competencia, exponía en una conferencia en La Haya los riesgos que implica el uso de la inteligencia artificial. “Sin un marco ético adecuado ésta puede socavar valores como la justicia y la igualdad”, señalaba. Vestager comparaba, de hecho, los sistemas de inteligencia artificial con una “caja negra” que evita que se pueda comprobar si utilizan datos sesgados y poder hacer frente a las respuestas que producen. “Siempre deben ser las personas, no los ordenadores, las que estén, en última instancia, a cargo de las decisiones que afectan a nuestras oportunidades y a nuestra libertad”, espetaba.
Barrio ve adecuada la línea legislativa que prepara Bruselas: “Busca un enfoque prudente y meditado para permitir la capacidad de innovación de Europa, al tiempo que garantiza que esta tecnología se desarrolle y emplee en una forma que respeta jurídicamente los principios y valores del Derecho europeo. Además, propone medidas para facilitar el acceso a los datos”.
Consenso global, el objetivo deseable pero lejano
Muchos expertos abogan por que haya una regulación consensuada a nivel global (sobre todo entre UE, EE. UU. y China) sobre el desarrollo y uso de la IA. Estados Unidos apremiaba recientemente a Europa a abordar iniciativas reguladoras en este sentido. “Esta sería la modalidad regulatoria deseable –indica el abogado–, pero no se va a poder lograr dada la divergencia de intereses entre estas superpotencias, como tampoco se ha conseguido en materia de regulación de Internet. Por eso la UE está muy bien posicionada para liderar un modelo regulatorio, si bien prudente, meditado y técnicamente bien armado, que asegure que los ciudadanos nos podamos beneficiar de esta tecnología y podamos asimismo controlar la forma en que se desarrolla”.
Urge modificar también la regulación laboral
Otro desafío legal es cómo debería cambiar la regulación del trabajo en un mundo cada vez más automatizado donde muchas tareas las harán robots y algoritmos. “Mas allá de horizontes distópicos y utópicos, la robótica y la inteligencia artificial hacen muy urgente la revisión de los esquemas de tributación y de cotización a la Seguridad Social” –apunta Barrio–. Con anterioridad el Derecho no sólo evitó un posible proceso de pauperización masiva, sino que lo recondujo hacia una decisiva mejora del bienestar individual y social. Ahora el reto es buscar un equilibrio entre el progreso tecnológico y social”.
Puede leer las principales tendencias en inteligencia artificial para 2020 en este reportaje