🎙️Nuevo Episodio: Se cayó Claude y no pude trabajar

¿Qué pasa cuando tu IA se cae y no puedes trabajar? Dependencia tecnológica, planes de contingencia y la filtración de Claude Code. Ep. 7.

🎙️Nuevo Episodio: Se cayó Claude y no pude trabajar

¡Hola 👋🏽! ¿cómo estás?

Nuevo miércoles, nuevo podcast! Esta semana arrancamos con una confesión de Cristian: se "casó" con Anthropic, apostó todo al plan de 200 dólares... y el servicio se cayó justo cuando más lo necesitaba. GitHub también falló con un SLA de 93.7% (equivalente a 45 horas abajo en un mes).

El resultado: su día menos productivo en mucho tiempo.

A partir de ahí, la conversación se puso intensa: ¿qué tan dependientes somos de la IA? ¿Qué pasa cuando no hay plan B? ¿Y qué significa todo esto para las empresas y las personas?


En este capítulo, Cristian Tala, Rodrigo Rojo y Diego Arias debaten sobre dependencia tecnológica, planes de contingencia, la filtración del código de Claude Code, los despidos masivos por IA y por qué Latinoamérica necesita despertar.

El capítulo está cargado de reflexiones honestas para cualquier persona que esté usando IA en su día a día, ya sea como independiente o dentro de una empresa.

Qué aprenderás:

  1. Por qué necesitas un plan de contingencia si dependes de un solo modelo de IA
  2. La diferencia entre consumir IA por suscripción vs. por API (y por qué importa en producción)
  3. Qué se encontró en la filtración del código de Claude Code (funcionalidades ocultas, Kairos, y más)
  4. Cómo las grandes empresas están definiendo reglas de "AI fluency" para contratar y evaluar (caso Zapier)
  5. Qué dijo el CEO de JP Morgan sobre regular la IA para "salvar la sociedad" y por qué no tiene sentido
  6. Por qué el cuello de botella hoy somos nosotros (y no la tecnología)
  7. Herramientas y modelos alternativos: Minimax 2.7, Qwen 3.5 Omni, GenSpark, NemoClaw

Herramientas y recursos mencionados:

Dónde encontrarnos:

Y recuerden: cáguenla, aprendan, revisen y sigan intentándolo 💪🏽