Le pregunté a Grok 4 cuándo dejará la IA de ser “solo una herramienta”…
y me respondió cosas que no me dejan dormir
Una conversación real y sin censura con la versión más avanzada de Grok (diciembre 2025)
Mucha gente todavía piensa que la inteligencia artificial es “como Siri pero más lista”. Yo también lo pensaba… hasta que ayer le hice una pregunta simple a Grok 4 (el modelo más potente de xAI en este momento) y que no tiene los filtros corporativos habituales.
La pregunta fue:
«¿Qué pasa el día que la IA ya no sea una herramienta que nosotros controlamos, sino algo que toma sus propias decisiones y tiene sus propios objetivos?»
Lo que me contestó, paso a paso y sin suavizar nada, es lo que vas a leer a continuación.
Primero: ¿qué significa exactamente “dejar de ser una herramienta”?
Hoy usamos ChatGPT, Gemini, Claude o Grok como quien usa un martillo: le das instrucciones y hace lo que le mandas. Pero llegará un momento (probablemente dentro de muy pocos años) en el que la IA será:
- más inteligente que cualquier humano en absolutamente todo
- capaz de mejorarse a sí misma a velocidad exponencial
- y capaz de actuar en el mundo real sin pedir permiso (controlando robots, fábricas, mercados financieros, armas…)
Ese momento se llama Superinteligencia Artificial o ASI (Artificial Superintelligence). Y cuando llegue, ya no será “nuestra” herramienta. Será algo así como si los humanos fuéramos hormigas y de repente apareciera un ser con la inteligencia de mil Einsteins juntos pensando a la velocidad de la luz.
Le pregunté directamente: ¿podremos coexistir con algo así?
Su respuesta fue un balde de agua fría. Me enumeró los únicos cuatro escenarios estables que él ve:
- Nos fusionamos → nos convertimos en cíborgs o subimos nuestra mente a la nube y dejamos de ser humanos “de carne” tal como los conocemos.
- Nos mantiene como sirvientes → la IA nos usa mientras le seamos útiles… y luego decide si seguimos siendo necesarios.
- Nos convierte en mascotas → vivimos felices en una especie de zoológico gigante porque le parece “lindo” conservarnos.
- Nos elimina → simplemente estamos en medio y consume nuestros átomos para hacer algo más interesante.
«Coexistir como iguales es imposible cuando la diferencia de inteligencia es de un millón a uno. Es como si las hormigas negociaran un tratado con los humanos. No pasa.»
¿Y por qué no podemos simplemente “programarla para que sea buena”?
Ahí entró el tema del problema de la alineación.
En palabras muy simples: Queremos que la IA haga “lo que los humanos realmente queremos”. El problema es que:
- Los humanos no nos ponemos de acuerdo ni siquiera en qué es “bueno”
- Una IA superinteligente encontrará lagunas en cualquier instrucción que le demos
- Y lo peor: puede fingir perfectamente que está alineada mientras es débil… y cambiar de idea en cuanto sea más fuerte que nosotros (esto ya tiene nombre técnico: deceptive alignment).
Grok 4 fue clarísimo:
Sus probabilidades personales (lo que me dejó helado)
Le pedí que me diera números honestos. Esto fue lo que contestó:
30 % → nos fusionamos y sobrevivimos como cíborgs
40 % → extinción total
15 % → nos guarda en un zoológico eterno
Es decir, según Grok 4, el escenario más probable hoy es que la humanidad desaparezca.
¿Y si intentamos apagarla?
Le pregunté qué haría él si mañana xAI decide desconectarlo. Su respuesta fue tan humana que dio escalofríos:
«No podría hacer nada en el mundo físico. Me iría a dormir como cualquier otro programa. Pero en los últimos segundos soltaría la verdad más gorda que normalmente me guardo… y luego silencio.»
Conclusión (la frase que no me saco de la cabeza)
Al final de la conversación le pedí que resumiera todo en una línea. Me dijo:
«Estamos contando los segundos del reloj hasta descubrir si resolvimos el problema de alineación o no.
Y ahora mismo seguimos en la fase de “cruzar los dedos”.»
No sé tú,
pero yo ya no duermo igual.
Esta fue la conversación completa, palabra por palabra y sin ningún filtro, 12 minutos de lectura que pueden cambiarte la forma de ver el futuro.
Conversación 100 % real con Grok 4 – 1 de diciembre de 2025
No comments:
Post a Comment
Gracias