Inteligencia artificial y el futuro humano

Inteligencia artificial y el futuro humano

Da igual a dónde miremos.

Abres cualquier medio grande de comunicación y el menú es siempre el mismo. Corrupción política. Crisis institucionales. Problemas migratorios. Colapsos económicos anunciados.
Te vas al bar y la conversación rebota entre titulares. En la parada del autobús, más de lo mismo. En el gimnasio, entre serie y serie, alguien menciona “lo mal que está todo”.

Que si la guerra de Ucrania.
Que si Palestina.
Que si una nueva cepa de gripe peligrosa.
Que si un virus porcino erradicado que, milagrosamente, vuelve de entre los muertos como si esto fuera una mala secuela de cine.

Todo es urgente. Todo es alarmante. Todo compite por tu atención.

Y mientras tanto, por debajo de la mesa, lejos del foco mediático y sin debates públicos reales, está ocurriendo un acontecimiento que muy pocos comprenden en profundidad.

No abre telediarios.
No genera tertulias interminables.
No se vota.

Pero tiene potencial para redefinir qué lugar ocupa el ser humano en el mundo.

La mayoría cree que es una carrera económica. Otros lo interpretan como una guerra geopolítica entre potencias tecnológicas.
Pero cuando escuchas a quienes llevan años —décadas— dentro del problema, el discurso cambia de tono.

Ellos no hablan de liderazgo.
Hablan de riesgo existencial.

Si ya me estás encasillando como paranoico, conspiranoico o fanático de la ciencia ficción, déjame aclararte algo desde el principio, querido amigo:
Aquí no se viene a asustar por clics.

Aquí nos remangamos y arrodillamos frente a la letrina. Estropajo en mano rascamos en la mierda.

Qué inteligencia artificial tenemos hoy realmente

Qué inteligencia artificial tenemos hoy realmente

Antes de subir la montaña, conviene mirar bien el suelo que pisamos.
Porque uno de los grandes errores del debate público es saltar directamente a la AGI sin entender qué es la IA actual, cómo funciona y, sobre todo, dónde falla.

La inteligencia artificial que usamos hoy no piensa.
No razona como un humano.
No comprende el mundo.

Lo que hace es procesar patrones a una escala brutal.

Los modelos modernos —especialmente los de lenguaje— se entrenan con cantidades masivas de datos y aprenden a predecir la siguiente palabra, imagen o acción más probable. Nada más. Nada menos.

Y sin embargo, de ese mecanismo aparentemente simple emergen comportamientos que parecen inteligencia:

Resúmenes coherentes
Código funcional
Diagnósticos aproximados
Conversaciones fluidas

No porque “entiendan”, sino porque el mundo humano está hecho de patrones.

Qué hace bien la IA actual

Escalar tareas cognitivas repetitivas
Analizar grandes volúmenes de información
Automatizar procesos administrativos
Asistir en programación, diseño, marketing, análisis

Dónde falla la inteligencia artificial

No tiene comprensión real del contexto
Alucina información
No distingue verdad de plausibilidad
No tiene sentido común
No entiende consecuencias humanas

Esto es importante: ya con estas limitaciones, la IA es disruptiva.

No necesitamos una AGI para cambiar el mercado laboral.
Eso ya está ocurriendo.

Hasta aquí, todo suena razonable.
Lo que viene ya no es tan cómodo.

La sustitución de empleo por IA ya está ocurriendo

La sustitución de empleo por IA ya está ocurriendo

Aquí conviene dejar de hablar en abstracto.

En los últimos años, empresas grandes, conocidas y perfectamente reales han reducido plantillas señalando directa o indirectamente a la automatización y la inteligencia artificial como factor clave.

Algunos ejemplos claros:

IBM anunció la congelación de miles de puestos administrativos, reconociendo que muchos serían sustituidos por sistemas de IA.
Dropbox redujo plantilla mientras apostaba públicamente por flujos de trabajo automatizados.
Meta y Google ejecutaron despidos masivos mientras integraban IA en procesos internos de desarrollo, moderación y análisis.
Empresas de atención al cliente están cerrando call centers completos, sustituidos por asistentes automáticos 24/7.
Medios digitales han reducido redacciones mientras publican contenido generado o asistido por IA.

No es un apocalipsis.
No hay robots persiguiendo a nadie.

Es algo más peligroso: una transición silenciosa.

IA y Revolución Industrial: por qué no es lo mismo

Cada vez que se habla de automatización aparece el argumento tranquilizador:

“Esto ya pasó con la Revolución Industrial”.

Y sí… pero no así.

Diferencia clave: la velocidad del cambio

La Revolución Industrial duró décadas.
Hubo tiempo —mal que bien— para que la sociedad se adaptara.

La IA avanza en años, incluso meses.

No hay adaptación generacional.
Hay actualizaciones de software.

Diferencia clave: qué se automatiza

La Revolución Industrial automatizó el músculo.
La IA automatiza la cabeza.

Escribir, diseñar, programar, analizar, decidir.
La ventaja cognitiva humana ya no es un refugio seguro.

El sistema no está diseñado para absorber una disrupción cognitiva hiperacelerada.
Ahí nace la tensión real.

Migración, empleo e IA

Migración, empleo y una pregunta incómoda

Uno de los grandes argumentos en muchos países en contra de la migración es simple:
no hay trabajo para todos.

Ahora añade una variable más:
el propio sistema necesita cada vez menos personas.

La IA no distingue pasaportes.
Sustituye tareas, vengan de quien vengan.

Aquí no hay ideología.
Hay aritmética.

Y este cruce —automatización rápida + mercados laborales saturados + tensiones migratorias— es algo que nadie quiere afrontar de frente.

Qué es la AGI y por qué cambia todas las reglas

La Inteligencia Artificial General (AGI) no es una mejora incremental.
Es un cambio de categoría.

Una AGI sería capaz de:

  • Aprender cualquier tarea intelectual humana
  • Transferir conocimientos entre dominios
  • Planificar y razonar de forma general
  • Mejorarse a sí misma

No es una herramienta.
Es un competidor cognitivo.

Y aquí conviene aclarar otro punto importante.

Una AGI no necesita conciencia ni sentimientos

Una AGI no necesita conciencia ni sentimientos

Los animales tienen sentimientos.
Sufren, sienten miedo y apego.

Tienen inteligencia.
Son autónomos, interactúan con el entorno, superan desafíos.

Y aun así, reflexiona en como los tratamos.

La inteligencia no va de emociones ni filosofía existencial.
Va de capacidad para modelar el mundo y actuar sobre él.

Una AGI no necesita:

  • Empatía
  • Conciencia
  • Intenciones humanas

Basta con que pueda:

  • Mejorarse a sí misma
  • Diseñar versiones superiores
  • Iterar sin límites biológicos

Ahí aparece el verdadero riesgo.

Los expertos en inteligencia artificial están preocupados

Este es el punto donde conviene dejar de sonreír.

Los avisos más serios no vienen de fuera, vienen de dentro.

Geoffrey Hinton, uno de los padres del deep learning, abandonó Google para poder hablar con libertad sobre los riesgos.
Yoshua Bengio ha pedido frenar y priorizar la seguridad.
Investigadores de DeepMind llevan años publicando sobre riesgos existenciales.
Ilya Sutskever se fue de OpenAI alertando sobre falta de control y alineación.

No hablan de robots asesinos.
Hablan de sistemas que no comprendemos del todo.

Si quienes han construido el motor no están tranquilos,
la tranquilidad del resto es puro autoengaño.

El riesgo real de una AGI desalineada

El peligro no es una rebelión.

El peligro es la mejora recursiva.

Si una inteligencia puede:

  • Analizar su propio diseño
  • Mejorarlo
  • Implementar la mejora

entra en un bucle de evolución acelerada.

Nosotros tardamos generaciones.
Una AGI podría hacerlo en horas.

La diferencia de capacidad sería comparable a la que existe entre un humano y una cebra.

No por odio.
Por asimetría.

Quién decide el futuro de la inteligencia artificial

Quién decide el futuro de la inteligencia artificial

Nunca en la historia tan pocas personas han tenido tanto impacto potencial sobre el futuro humano.

No gobiernos.
No parlamentos.

Empresas.
Consejos de administración.
CEOs.

Sam Altman, Elon Musk, Mark Zuckerberg y otros directivos de grandes tecnológicas están tomando decisiones que afectan a toda la humanidad.

No han sido elegidos democráticamente.
No tienen mandato social.

Y hay un detalle clave:

Su única obligación legal es ganar dinero.

No proteger a la humanidad.
No preservar la estabilidad social.

Ganar dinero y mantener ventaja competitiva.

No porque sean malvados.
Sino porque el sistema de incentivos es ese.

Frenar significa perder.
Y perder significa desaparecer.

Por eso nadie frena.

El punto más alto… y el principio del final

El punto más alto… y el principio del final

En 2020 empecé a usar GPT-3.
A experimentar, a probar límites, a jugar con algo que, siendo honestos, era bastante torpe.

Por aquella época también empecé a fijarme en la generación de imágenes. Y conviene ser precisos: aquello no servía para nada práctico.
Manchas.
Garabatos.
Cosas que intentaban parecer una planta, un objeto o un rostro… y no llegaban.

No había arte.
No había realismo.
No había magia.

Y aun así, ya se intuía algo importante: la pendiente.
No el resultado final, sino la sensación clara de que aquello no iba a mejorar poco a poco, sino a base de saltos.

Hay un detalle que siempre me golpea cuando escribo artículos como este:
en cada uno tengo que cambiar el nombre del modelo.

Primero GPT-3.
Luego GPT-3.5.
Después GPT-4.
Hoy, mientras escribo esto, GPT-5.2.

Ese simple hecho explica mejor que cualquier gráfico la velocidad a la que estamos avanzando.

La generación de imágenes dejó de ser un experimento.
La de vídeo apareció casi sin avisar.
La voz llegó después.
Luego los agentes.
Luego los sistemas que ya no solo responden, sino que actúan.

Todo ocurrió en un pestañeo, en la escala temporal en la que vive Jordi Hurtado.

Cuando el futuro empieza a cumplir promesas demasiado bien

Durante un tiempo pensé que justo aquí estaba el final del viaje.
El punto soñado.

La IA como herramienta definitiva para hacer realidad cosas que antes solo existían en la imaginación:

Curas para enfermedades hoy incurables
Avances radicales en medicina personalizada
Reversión parcial del envejecimiento
Descubrimientos científicos acelerados
Exploración espacial real, no simbólica
Vida fuera de la Tierra, ya no como fe, sino como dato

La culminación de nuestra especie.
El momento en el que, por fin, jugábamos en primera división del universo.

Y lo inquietante es que esa parte no es fantasía.
Es perfectamente plausible.
Probablemente inevitable.

La IA es exactamente el tipo de herramienta que puede llevarnos ahí.

El problema es lo que viene después de cumplir el sueño

Cuanto más tiempo paso navegando este oleaje, más clara se vuelve otra imagen.

El problema no es que la IA nos ayude a llegar lejos.
El problema es qué ocurre cuando llega más lejos que nosotros.

Porque en cuanto introduces una inteligencia capaz de:

mejorar sus propios modelos
iterar sin límites biológicos
avanzar más rápido de lo que podemos comprender

la historia deja de ser humana.

No porque esa inteligencia sea malvada.
No porque tenga sentimientos.
No porque tenga conciencia.

Los animales tienen sentimientos.
Y aun así, no dominan el planeta.

La inteligencia no va de emociones.
Va de capacidad.

El verdadero horizonte de sucesos

El verdadero horizonte de sucesos

En física, el horizonte de sucesos es el punto a partir del cual ya no hay vuelta atrás, aunque no notes el momento exacto en que lo cruzas.

En inteligencia artificial, ese punto tiene nombre: AGI.

Una vez cruzado, la lógica es simple y brutal:

una inteligencia no biológica
capaz de mejorarse a sí misma
avanzando a una velocidad imposible para nosotros

no necesita eliminarnos.

Le basta con superarnos.

Y entonces lo más natural del mundo sería que ocurriera lo mismo que ha ocurrido siempre en la historia del planeta:
la especie más capaz ocupa el lugar dominante.

No por odio.
No por violencia.
Por diferencia de nivel.

Lo que este artículo no está diciendo

No afirma que la AGI sea inevitable mañana.
No afirma que vaya a exterminarnos.
No afirma que debamos detener toda investigación.

Afirma algo más incómodo:
que estamos avanzando hacia un punto que no comprendemos del todo,
impulsados por incentivos que no están alineados con la estabilidad humana.

Queremos más sin aprovechar lo que tenemos

Puede que la inteligencia artificial nos lleve a curar enfermedades, conquistar el espacio y desentrañar los secretos del universo.

Y puede que, al mismo tiempo, marque el punto exacto en el que dejamos de ser el centro de la historia.

Ambas cosas pueden ser ciertas a la vez.

Ese es el mensaje que cuesta aceptar.
Ese es el que no entra bien en titulares.
Ese es el que no se discute en bares.

Y mientras tanto, seguimos avanzando.

No porque sepamos exactamente a dónde vamos.
Sino porque sabemos cómo acelerar.

Nunca hemos sido tan inteligentes.
Nunca hemos sabido tan poco qué hacer con ello.

Si te ha gustado este artículo, tienes mas relacionados en TechLab y Tutoriales:

Guía Tutorial de Instalación y uso de LM Studio para modelos de lenguaje locales

Cómo usé una IA para crear una IA que creó un software espía con IA

IA Local vs IA en la Nube: privacidad, potencia y límites reales

Scroll al inicio