domingo, 18 de marzo de 2018

Inteligencia Artificial y el futuro: de la percepción a la realidad


Joaquín Borrego

* Se plantea una revisión de las implicaciones y lo que está suponiendo la generalización del uso de la Inteligencia Artificial y las Nuevas Tecnologías en el mundo del trabajo, el mercado laboral y la sociedad en su conjunto, así como la advertencia desde la comunidad científica para un uso ético.

Introducción

Recientemente los medios de comunicación y las redes sociales (espoleadas por los primeros) han inundado el discurso público de expectativas sobre la aplicación masiva de mecanismos de Inteligencia Artificial, bien en forma física (robots) bien en forma digital (con tecnologías como Deep Learning y Big Data). Como en otros casos, dichas expectativas están condicionadas por la percepción que los creadores/as de contenido de los mass media poseen de la innovación tecnológica, que suele ser limitada y que mezcla información con opiniones, matizaciones y subjetividad. Es más, la tentación de ampliar el discurso atreviéndose a lanzar predicciones y profecías sobre el devenir y aplicaciones de la tecnología plantea el peligro de moldear una opinión pública en base a prejuicios y opiniones de legos en la materia que, incluso, llegan a reinterpretar a su conveniencia las opiniones de las personas expertas.

Este panorama es esencial para entender cómo las preocupaciones sociales acerca de los beneficios y peligros de las nuevas tecnologías evolucionan, así como dichas preocupaciones aterrizan en el discurso político (por la propia dinámica social). Dando por sentado esta situación, también es cierto que existen peligros socioeconómicos en la Innovación.

La preocupación por la pérdida de empleo provocada por la tecnología originó un conflicto social ya con la primera revolución industrial a principios del s. XIX, y se acepta que toda innovación tecnológica de gran calado provoca una fase de desajuste temporal en el mercado de trabajo. Sin embargo, existe otro problema que no recibe la misma atención, y es la brecha económica entre ricos y pobres, así como la erosión de la clase media que las tecnologías avanzadas están provocando. Las innovaciones tecnológicas no son la causa principal, pero la brecha comienza a ser evidente en algunas actividades económicas, donde con el engañoso término economía colaborativa esconde una desregularización de las condiciones de trabajo y servicios (objetivo de Uber o AirBnB). Son plataformas que, aderezadas con sistemas de IA, hacen difícil competir en precios y calidad del servicio a los empresarios tradicionales. Silicon Valley capitanea una nueva generación de startups de economía colaborativa dirigidas a mercados centralizados o muy regulados (como hoteles o taxis) con el objetivo de intermediar entre la ciudadanía que se convierten en clientes y proveedores de servicios, eliminando puestos de trabajo que se sostenían por las limitaciones de acceso a competidores.

El citado periodo de desajuste se traduce en un recambio de profesionales donde el valor de los candidatos se centra en la formación en las nuevas tecnologías. Y este recambio no sólo ocurre en las áreas tradicionalmente propensas a estos procesos como la de manufacturación (donde la robótica lleva bastante tiempo ocupando puestos en fábricas). También afecta de manera creciente a otras actividades como la contabilidad y gestión en empresas, que son suplantadas por sistemas que funcionan con la misma eficacia. Son tendencias a largo plazo que hacen desaparecer los trabajos de “habilidad media” mediante sistemas de Inteligencia Artificial, y que amenazan empleos de la clase media.

La percepción sobre la Inteligencia Artificial

La Inteligencia Artificial (IA) no es una excepción. Los productos y servicios basados en IA viven en este momento una cima de expectativas alentada por los resultados espectaculares de las nuevas técnicas de aprendizaje automático como el deep learning. Las consultoras tecnológicas publican informes que conducen la inversión a las nuevos productos y servicios que aparecen (bien en forma de nuevas empresas, bien en el nacimiento de start-ups). La percepción de la IA en el ámbito económico es, pues, como motor de desarrollo y beneficios.

En la sociedad, sin embargo, existen dos puntos de vista opuestos acerca de la IA: el que ve la IA como una oportunidad para lanzar innovación y bienestar para el ser humano (citando avances en Medicina, por ejemplo); y el que ve la IA como una amenaza real, en forma de pérdida de empleos (“los robots ocupan puestos humanos”), de sistemas vigilancia basada en datos cuasi-orwellianos, etc.

La disyuntiva, en realidad, no es tal. El primer punto de vista considera la tecnología como producto de uso y como un objetivo en sí mismo (tecno-determinismo acrítico), descargando la responsabilidad en el uso pretendido (un punto de vista clásico en la Ciencia: los resultados están libres de ataduras éticas, es su uso el que lo determina). Es decir, se percibe como positivo la tecnología, pero se obvia su uso. El segundo, sin embargo, alerta de ciertos casos en los que la tecnología innovadora es resultado de una política de desarrollo e innovación dirigida a servicios potencialmente perjudiciales. Que el carácter libre de ética de la tecnología permite su uso espúreo y dañino. En su libro El desengaño de Internet Evgeny Morozov presenta un buen puñado de ejemplos de uso de innovaciones tecnosociales que se convierten en evil. Por ejemplo, la celebración en Occidente alrededor de Twitter como el social media definitivo, especialmente como catalizador-conductor de la primavera árabe, cuando, por ejemplo, el análisis de los datos generados en la plataforma permitió acto seguido al régimen iraní reprimir a disidentes.

En [Fast & Horvitz 2016] se establece una serie de “indicadores” que les sirven a los autores para estimar la esperanza o la preocupación social sobre el desarrollo de la IA. Los indicadores “positivos” (impacto positivo sobre el trabajo, educación, movilidad, salud, toma autónoma de decisiones, industria del entretenimiento, fusión humano-robot en la superación de discapacidades y la Singularidad como algo positivo) está relacionados con el bienestar común sin implicaciones económicas directas. Sin embargo, casi todos los indicadores negativos (pérdida de control, impacto negativo en el trabajo, aplicaciones militares, ausencia de ética, lento desarrollo de la IA, fusión humano-robot para control y agresión -cyborgs militares-, y la Singularidad como algo negativo) se centran en los aspectos económicos y de seguridad (militar y civil). Los autores concluyen que, en términos globales, la opinión pública se decanta por los aspectos positivos si se tratan los aspectos de manera global, pero que aparecen serias preocupaciones cuando se centra en cuestiones específicas donde la ciudadanía se enfrenta a dilemas concretos. Por ejemplo, aquellos relacionados con la pérdida del control del sistema inteligente, como pueden ser los coches autónomos o armas inteligentes. La preocupación está pues, menos relacionada con la aceptación de la IA como herramienta potencialmente beneficiosa y más con nuestra seguridad y las consecuencias directas sobre nuestra integridad como homo economicus y como sujeto con derechos civiles de esa revolución de la IA, que parecía hasta hace poco lejana y acotada en laboratorios y videojuegos.

Para entender algunos aspectos del desafío que representa la nueva IA es adecuado considerar tres niveles distintos de aplicación. El nivel nube (es la IA que se aplica en servidores sobre grandes cantidades de datos para la toma de decisiones). El nivel físico está relacionado con la imaginería popular de los robots y máquinas autónomas. Y finalmente, el nivel híbrido, donde la computación en la nube provee a las máquinas de inteligencia computacional basada en datos para la toma de decisiones sobre el terreno.

Nivel nube

Todo el mundo ha usado (consumido, añadido, interaccionado) servicios a ese nivel nube y, en mayor o menor grado hemos ayudado a algunos de los grandes sistemas de IA. Google es uno de los grandes ejemplos. La empresa propietaria del buscador es una empresa basada en Big Data (almacenamiento, gestión y transformación de cantidades masivas de datos). Vende datos, produce datos, diseña software que consume datos y produce otros.

La preocupación por el cada vez mayor conocimiento que este tipo de empresas posee sobre nosotros, extraído a partir de datos, y cómo los vende y/o utiliza es lícita y necesaria. Muchas decisiones en nuestro entorno se están tomando en base a Aprendizaje Automático y otros sistemas computacionales basados en modelos matemáticos que no respetan uno de los principios esenciales en ciencia: la necesidad de un modelo que justifique/explique el resultado o decisión. La estadística, la veracidad de la correlación, ha sustituido a la construcción crítica de modelos que expliquen el funcionamiento del sistema o problema observado incluída la necesidad de establecer causalidad. Y lo ha sustituido porque funciona. No necesitan los modelos.

La ausencia de modelos (sociales, económicos, etc.) que expliquen la toma de decisiones es muy popular en entornos donde se utilizan sistemas de IA denominados opacos (sistemas que funcionan bien para un problema pero que no podemos explicar por qué razón ocurre, como las redes neuronales complejas). No conocer el modelo implica que no conocemos cuáles son las razones fundamentales por las que toma la decisión, con el peligro potencial que representa (por ejemplo, usando variables socioeconómicas que conlleven discriminación [Gómez 2017]). El uso de la correlación como argumento, eligiendo las variables a estudiar entre una amplia panoplia de éstas, buscando sólo la explicación cuantitativa, es pernicioso si se olvida el método científico. Y es peligroso porque las grandes corporaciones recopilan datos de sus usuarios de manera masiva, lo que las coloca en una situación privilegiada frente al resto de la sociedad. En áreas como finanzas y seguros las decisiones de este tipo afectan de manera importante al ciudadano, y las autoridades competentes deberían contemplar la necesidad de auditar esos métodos. De imponer la transparencia en la toma de decisiones (por ejemplo, que nos expliquen por qué no nos conceden un crédito de manera argumentativa).

El uso del Big Data sobre datos personales es un ejemplo de la disyunción antes aludida. El enorme potencial esperable del tratamiento de información médica es una esperanza aséptica que en manos de las instituciones es un indicador positivo, pero sin embargo el tecnocapitalismo puede convertir en producto de discriminación y beneficio propio. Frente a la detección de soluciones o tratamientos más eficientes para optimizar recursos de la Sanidad Pública se perfila el peligro de que la venta de datos (aún anonimizados) a corporaciones farmacéuticas o de seguros les permita la explotación de nuevos medicamentos o la discriminación -en base a algoritmos de aprendizaje entrenados con datos poblacionales significativos- de las tarifas de los seguros y tratamientos médicos especializados.

En el fondo, la aplicación de esos modelos opacos esconden otro pecado del sistema socioeconómico actual: la optimización de decisiones a corto plazo, olvidando la construcción de modelos que aseguren la sostenibilidad
y rentabilidad (social, económica o ambas) del sistema. La falta de esa visión a medio y largo plazo ya la hemos sufrido en campos como el financiero o el mercado de valores. La eficiencia del mercado (la tesis de que el mercado es el responsable eficiente para igualar valor y precio) se ha transformado, en esta era de Data Science, en un desafío computacional sin precedentes en Economía. Se necesita rapidez en aprehender la información y tomar rápidamente un número considerable de decisiones de compra/venta de pequeña entidad de acciones que, en su conjunto, permitan obtener beneficios de consideración. En la actualidad, los mejores sistemas de Trading están gobernados por IA. Procesan una cantidad masiva de datos a gran velocidad para tomar rápidamente las decisiones, aprendiendo a reaccionar a los eventos del mercado para predecir movimientos a corto plazo. El problema, el gran peligro de este ecosistema, es que la velocidad ha sustituido a la estrategia en el tiempo: es una conducta cortoplacista, sin planificación a largo plazo y por tanto no se pueden controlar automáticamente los desequilibrios artificiales (por ejemplo, burbujas financieras) con impacto socioeconómico importante.

Nivel físico

El imaginario popular de la pérdida de empleos provocada por la IA siempre está asociado a la robotización. Y los nuevos despidos con la construcción de robots más inteligentes. Es por tanto natural que el nivel físico sea el que ocupe el primer lugar en las preocupaciones de la clase obrera. Sin embargo, en la actualidad, ni siquiera los expertos están de acuerdo en cuáles serían qué tipos de puestos de trabajos serán ocupados por robots. Los investigadores Guy Michaels y su colega Georg Graetz de la London School of Economics han realizado un estudio sobre el impacto de la robótica en 17 países en desarrollo y los resultados no son concluyentes en un sentido u otro. Si bien es evidente la pérdida de empleo de baja cualificación (por ser tecnológicamente asequible para los robots), la implantación de la robótica provoca no sólo el aumento de la productividad, también la creación de nuevos empleos para otros trabajadores/as. Los citados autores afirman que no existe evidencia de que los robots reduzcan empleos en términos globales.

Si nos centramos en la robótica como servicio a la ciudadanía, podemos afirmar que aún existe mucha distancia entre la robótica actual y la robótica cognitiva que se necesitaría para muchas labores. Por ejemplo la asistencia integral de la tercera edad o los dilemas a los que nos enfrentamos con los coches autónomos. Este último ejemplo es paradigmático, porque muestra a la opinión pública el techo de cristal que tiene la IA en términos de seguridad. Deja en evidencia ante la ciudadanía el enorme paso que representa delegar nuestra seguridad en sistemas autónomos.

Nivel híbrido

Sin embargo, donde quizás nos encontremos con los mayores peligros a corto plazo será en la combinación de los niveles antes comentados. Es decir, en sistemas que aprovechen servicios en la nube para la toma de decisiones en el mundo real. La potencia de los sistemas en la nube hace que los sistemas físicos no necesiten gran capacidad cognitiva, siendo de esa forma más factibles. Por ejemplo, preocupándose de las acciones encaminadas a su persistencia como sistema y delegando las decisiones estratégicas a servicios en la nube que serán comunicadas con rapidez.

En 2012 E. Snowden habló de un programa desarrollado por la NSA denominado SKYNET, que usaba los metadatos de localización de los teléfonos y de sus registros de llamadas efectuadas/recibidas para detectar patrones sospechosos, ya sea por los movimientos de los individuos como por sus hábitos de comunicación. Alimentaron el sistema con datos obtenidos de la red de telefonía móvil de Pakistán para localizar presuntos terroristas basándose en patrones de movilidad o a quién llamó esa persona al llegar a su destino, entre otros. También analizaba otros comportamientos sospechosos como el uso por un individuo de varias tarjetas SIM o teléfonos o que sólo reciba llamadas entrantes. De esa forma le asignaba una probabilidad de ser terrorista a cada ciudadano espiado. El programa, calificado de basura por varios científicos de datos (incorrecto, mal diseñado y con conclusiones no fundamentadas) sirvió para elegir objetivos para los ataques de los drones desde 2007. Se estima que los drones han matado entre 2.500 y 4.000 pakistaníes desde 2004, incluidos falsos positivos (véase [Grothoff & Porup 2016]).

El ejemplo de SKYNET es muy interesante porque pone de manifiesto la necesidad de regulación de la IA en cuanto afecta a nuestros derechos fundamentales. Aunque no es el caso por ahora, sí es factible que se fabriquen de manera barata sistemas de IA que sean fácilmente transformables en máquinas de guerra, y que incluso posean una gran autonomía. Las previsiones sobre el uso bélico de este tipo de tecnologías son, a nuestro parecer, más realistas que el propio uso de armas nucleares, e incluso más devastadoras que éstas. La comunidad internacional debe de ser consciente de la necesidad de regular el uso de estas tecnologías, como lo es para la nuclear. Y comienza a ser perentorio, porque es mucho más sencillo reutilizar un sistema de IA con fines militares que un reactor nuclear. La sociedad científica sí es consciente de esta necesidad, y ya se están proponiendo normas encaminadas a este control.

Sociedad postlaboral

Como ya comentamos, el miedo ante la automatización no nos es nuevo. La primera revolución industrial provocó la irrupción de un fuerte rechazo a las máquinas como sustitutas de la mano de obra. La alfabetización industrial del siglo XIX consiguió desligar la innovación en maquinaria de la pérdida de empleo y se asoció al bienestar social y económico. El ludismo como reacción a la innovación industrial siempre ha estado latente desde aquella revolución, y como hemos comentado anteriormente, las proféticas “noticias” lanzadas desde los medios de comunicación han espoleado su resurgimiento.

Sin embargo -al menos en el mundo occidental- se está produciendo también un debate esencialmente distinto al de resignarse al neoludismo como única opción al fenómeno de la sustitución de la mano de obra mediante tecnología (incluída la IA). Recordando la historia, el ludismo tuvo su origen tanto en la destrucción de empleo como en el descontento con las condiciones de trabajo en las fábricas. Salvando las distancias, nos enfrentamos a una situación similar en la actualidad. Uno de los efectos de la crisis ha sido un empeoramiento de las condiciones de trabajo que provoca animadversión a competidores mecánicos que podrían empeorarlas todavía más. La mejor forma de prevenir este conflicto es atacar de raíz esta causa, que está relacionada con la calidad de vida.

Al menos dos iniciativas que, complementariamente, intentan desvincular efectivamente, el trabajo de los salarios, se han puesto sobre la mesa de políticos e intelectuales. La primera es la implantación de una renta básica universal que permitiría desvincular, al menos en parte, la necesidad de subsistencia del empleo. La segunda plantea establecer impuestos sobre los robots con cierta capacidad inteligente, gravando su uso para beneficio social. Ambas iniciativas están en fase de discusión y experimentación, pero su verdadero desafío llegará cuando los sistemas de IA sean capaces de trabajar en actividades económicas asociadas a la clase media, profesiones liberales y, en general, aquellas que requieren de formación superior: en la justicia, medicina, etc. Es en este tipo de innovación en la que nos enfrentaremos a un dilema: la creación de nuevo conocimiento dependerá de la vocación de estudiantes que, a la vez, se enfrentarán a
un futuro incierto cuando acaben sus estudios porque el conocimiento se implementará en máquinas.

Conclusiones

¿Qué puede hacer la sociedad ante este avance tecnológico, que parece imparable? Crear normas de uso de la AI, como por ejemplo los principios de ASILOMAR https://futureoflife.org/ai-principles. Son 23 principios que intentan acotar los objetivos y el ámbito de actuación y de uso de la IA. Están encaminados a que la IA sea considerada como un beneficio para la humanidad en su conjunto y la supeditación de ésta al arbitrio humano y de acuerdo a principios éticos. Es un ejemplo de cómo la comunidad científica advierte del futuro que nos viene, y cómo intenta alertar y aconsejar a los poderes políticos sobre el uso de la nueva IA.


Bibliografía

[Fast & Horvitz 2016] Ethan Fast, Eric Horvitz Long-Term Trends in the Public Perception of Artificial Intelligence, https://arxiv.org/abs/1609.04904

[Gómez 2017] David Gómez-Ullate, La otra cara del Big Data, http://elpais.
com/elpais/2017/01/17/ciencia/1484670954_785850.html

[Grothoff & Porup 2016] Christian Grothoff & J.M. Porup, The NSA’s SKYNET program may be killing thousands of innocent people, http://arstechnica.co.uk/security/2016/02/the-nsas-skynet-program-may-be-killing-thousands-of-innocent-people/

[Morozov 2012] Evgeny Morozov, El desengaño de internet, Destino, 2012.

[Artículo publicado originalmente en la revista Libre Pensamiento # 89, Madrid, invierno 2017. Número completo accesible en http://librepensamiento.org/wp-content/uploads/2017/05/LP-89.pdf.]


No hay comentarios:

Publicar un comentario

Nos interesa el debate, la confrontación de ideas y el disenso. Pero si tu comentario es sólo para descalificaciones sin argumentos, o mentiras falaces, no será publicado. Hay muchos sitios del gobierno venezolano donde gustosa y rápidamente publican ese tipo de comunicaciones.