El mono y la inteligencia artificial
Nieves y Miró Fuenzalida |
Durante la inauguración de la Asamblea General de las Naciones Unidas el 20 de septiembre del 2022 su Secretario General advirtió que la inteligencia artificial “está comprometiendo la integridad de los sistemas de información, los medios y, de hecho, la democracia misma”.
Lo inquietante, desgraciadamente, es que el problema pareciera que va más allá de lo que el Secretario General advirtió. Hasta hace bien poco, la informática era poderosa porque nos hacia poderosos, para bien o para mal. Una herramienta de propósito general, controlada por nosotros y a nuestro propio servicio, que amplifica nuestra inteligencia y que nos da acceso a información que antes no teníamos, aunque parezca en el fondo que nos hace más tontos… y tal vez, en realidad nos hacen.
Pero, esta es la cosa, según el ex editor de Time, Bryan Walsh, ¿qué pasaría si la inteligencia aumentada por el explosivo poder de la computación no es humana, sino artificial? ¿Si perdemos el control de las máquinas que nos sustentan en todos los rincones del mundo? ¿Y qué sucedería si nuestras herramientas desarrollan mentes propias, mentes incalculablemente superiores a las nuestras? Probablemente lo que le pasa a cualquier pieza de tecnología que se vuelve obsoleta: … nos transformaríamos en chatarra.
No hay una clara y distinta definición de lo que la inteligencia artificial es y no hay consenso científico en que constituye una “verdadera IA a diferencia de lo que puede ser solo un programa informático efectivo y rápido. Pero, en todo caso, una buena definición dice que la inteligencia no significa tener una gran cantidad de conocimientos o la capacidad de hacer matemáticas complejas, sino la de percibir el entorno con precisión y tomar acciones que maximicen la probabilidad de lograr objetivos determinados.
Las computadoras, como sabemos, pueden recordar mucho más y pueden hacerlo sin decadencia, fatiga o errores. Pero, en los últimos años la revolución informática se ha convertido en una revolución en inteligencia artificial, como nota Walsh, que puede derrotarnos en el ajedrez y el go, un juego japonés, que durante mucho tiempo se consideraron marcadores confiables de inteligencia.
Pueden reconocer imágenes, con pocos errores, jugar en el mercado de valores mejor que un corredor, mantener conversaciones a través de mensajes de texto casi tan bien como una persona, mirar un rostro humano y distinguir una mentira de una verdad. Y, sobre todo, la IA está aprendiendo a aprender, a ser máquina de aprendizaje de propósito general tomando datos por terabytes, generalizando y sacando conclusiones que pueda usar para lograr sus objetivos, cualquiera que estos sean.
Es esto justamente lo que hacemos nosotros, pero, debido a que una IA puede extraer, contener y procesar muchos más datos de los que un cerebro humano, tienen el potencial de aprender más y más rápido que un humano. Por ahora este aprendizaje se limita a temas específicos, pero si esta capacidad se amplía, otra historia nos cantara. Si puede hacer ésto dejara de ser simplemente una herramienta del humano, que actualmente domina el planeta, para convertirse en nuestro igual, por un breve tiempo, para luego convertirse en nuestro superior.
Si nosotros somos inteligentes, la IA podría volverse supeinteligente. En ese momento no sería raro encontrarnos a merced de una entidad superior en el mismo sentido en que los gorilas, en peligro de extinción, están a merced de nosotros. Y en la misma forma en que nosotros hemos llevado a la extinción a innumerables especies, la IA podría eliminarnos simplemente porque nuestra presencia se interpone en su camino para lograr sus objetivos.
¿No seria ésto la última paradoja que nuestra destrucción estuviera en las manos de una creación que representa la suma de la inteligencia humana?
¿Alarmista? El físico teórico Stephen Hawking ya había advertido que el desarrollo de la IA podría significar el fin de la raza humana. El matemático británico y colega de Turing, I.J.Good, en 1965 dijo que dado que el diseño de máquinas es una actividad intelectual, una máquina ultra inteligente podría diseñar máquinas aún mejores. Entonces habría una “explosión de inteligencia” y la inteligencia del humano quedaría muy atrás.
Por tanto, podríamos decir, ese sería el momento en que la máquina toma control. Así como los humanos se esfuerzan por mejorar, las máquinas también lo harán. La diferencia es que la máquina puede hacerlo actualizando su disco blando y duro directamente, escribiendo mejores códigos y creando mejores versiones de sí misma, a diferencia de los humanos que solo podemos actualizarnos mediante el lento proceso de la evolución. La superación recursiva de IA, el proceso de mejorar la capacidad para realizar mejoras personales, conduciría a máquinas cada vez más inteligentes y mucho más rápidas que el pensamiento humano.
Pero, después de todo, bien puede ser que esta super inteligencia sea pura fantasía. Según algunos expertos la super inteligencia no podría ser posible por centurias. La otra cara de este riesgo, sin embargo, es considerar la IA como la fuente última de nuestra “experiencia existencial”. Según ciertos comentaristas nuestras vulnerabilidades a las amenazas naturales o creadas por nosotros se reducen en gran medida a una cuestión de inteligencia.
Puede que no seamos lo suficientemente inteligentes para desviar un asteroide gigante, detener el peligro atómico, desarrollar fuentes de energía que puedan eliminar el peligro del cambio climático o la amenaza permanente de las enfermedades infecciosas. Pero, con una super inteligencia artificial, como creen los evangelistas cibernéticos, nada es imposible. Podríamos eliminar todos los dolores y males que son parte de nuestra condición, viajar por el universo e, incluso, lograr la inmortalidad. Según el CEO de Google, Sundar Pichai, la IA será “más importante que la electricidad o el fuego”.
Si este es el caso, entonces también, siguiendo la tendencia humana a controlar, no sería raro que las corporaciones o países que desarrollen la mejor IA estarán en posición de dominar el resto del mundo.
Cada gran salto tecnológico, como dice Walsh, ha sido acompañado de disrupción económica y social. Los luditas se rebelaron en contra de los telares automáticos, los automóviles fueron resistidos en el campo y el teléfono causó miedo que podría transmitir descargas eléctricas a través de sus cables. Pero, más temprano que tarde, nos adaptamos a la nueva tecnología y luego la damos por sentada.
La IA, sin embargo, puede ser diferente. Podemos elucubrar todo lo que queramos con la IA, pero ésta no tiene que volverse super inteligente para crear muchos más trastornos, comparada con cualquier otro avance tecnológico del pasado. Podría exacerbar el desempleo, empeorar la desigualdad, distorsionar el proceso electoral e incluso facilitar que los gobiernos maten a sus propios ciudadanos. Puede que no sean las máquinas a las que debemos temer, sino a los que las poseen.
El peligro de la IA a corto plazo no es sólo económico, según Walsh, sino que también puede transformarse en una asesina paralela. Con un poco de imaginación, por ejemplo, podemos dramatizar un escenario en donde enjambres de diminutos drones mecánicos usen IA y tecnología de reconocimiento facial para atacar y matar de forma autónoma. Esta no es solo una fantasía gratuita. Actualmente ya tenemos aviones no tripulados pilotados a distancia capaces de entregar cargas letales.
En el futuro próximo, los drones podrían programarse para asesinar a un político o llevar a cabo una limpieza étnica. Esto representaría la tercera gran revolución en la guerra, después de la pólvora y las armas atómicas. Esto haría mucho más fácil matar a voluntad, al principio para uso de los estados y luego para las bandas criminales, terroristas e incluso individuos solitarios.
Ya en el 2018 el Pentágono -el ministerio estadounidense de Defensa- lanzó un Centro Conjunto de IA de 1.7 mil millones de dólares y el mismo año la Agencia de Proyectos de Investigación Avanzada de Defensa anunció su propia campaña de IA de dos mil millones. El programa militar Edge, Project Maven, fue diseñado para ayudar a los sistemas informáticos a identificar objetos a partir de imágenes aéreas, lo que seria bastante útil si se quisiera desarrollar un dron que pudiera seleccionar objetivos y disparar sobre ellos de forma autónoma.
En las ciudades chinas las cámaras de reconocimiento facial escanean multitudes en busca de delincuentes y de aquellos que socavan la estabilidad social. Su uso está convirtiendo potencialmente a China en un estado tecnológicamente orwelliano, lo que seria una tragedia y un peligro mortal para sociedades más abiertas, si esas herramientas eventualmente se exportan.
Y peor aún para el mundo es la creciente probabilidad de que Estados Unidos y China se embarquen en una carrera armamentista que involucre la IA en lugar de armas nucleares, lo que representaría un riesgo existencial no solo eníi mismo, sino que también por la posibilidad de que saltos repentinos en la capacidad de la IA puedan alterar el equilibrio de poder necesario para mantener la paz entre los estados con armas nucleares.
Por ultimo, lo que realmente es espeluznante es que no entendemos los sistemas de inteligencia artificial que estamos usando y no solamente para gente común y corriente como nosotros, sino que también para expertos. Las mismas características que hacen que el aprendizaje profundo sea tan poderoso, dice Walsh, también lo hacen opaco. El proceso es tan complejo que incluso los creadores de los algoritmos a menudo no pueden decir por que una IA en particular toma una decisión y no otra.
Ella no explica sus actos. Y, para más remate, cuando actúa puede cometer errores, como en el automóvil Uber autónomo que atropelló y mató a un peatón en Arizona. Todos cometemos errores, pero un solo error del algoritmo puede extenderse a toda una industria comercial o a un aparato bélico con un daño inmensamente mayor.
Ninguna tecnología es infalible. Cuando un avión se cae los expertos pueden revisar la evidencia y entender que pasó. No siempre es así con la IA. El investigador de IA de Google, Ali Rahimi, comparó la IA no con la electricidad o el fuego, sino con la alquimia medieval. Esta produjo importantes avances científicos, como el desarrollo de la metalurgia, pero los alquimistas no podían explicar la base científica de porqué funcionaba lo que hacían. La IA en estos momentos está más cerca de los alquimistas que de los científicos.
No hay garantía que mantengamos el control de algo que excederá enormemente nuestras propias capacidades, prácticamente en todo. Imaginemos que finalmente ocurre, que nace la super inteligencia y escapa a nuestros débiles intentos de controlarla… ¿qué pasara entonces?
* Profesores de Filosofia chilenos graduados en la Universidad de Chile. Residen en Ottawa, Canadá, desde el 1975. Nieves estuvo 12 meses preso en uno de los campos de concentración durante la dictadura de Augusto Pinochet. Han publicado seis libros de ensayos y poesia.