Menu
Sign In Search Podcasts Charts People & Topics Add Podcast API Pricing
Podcast Image

🎙️ Cosas de programadores | Podcast Desarrollo de Software | campusMVP.es

🏗️ Escalando a lo bestia con Kubernetes y KEDA | Jorge Turrado | 🎙️ Podcast desarrollo software

05 Nov 2025

Description

El tráfico impredecible es la pesadilla de todo negocio online, provocando errores 408 y 429 y servidores KO. Pero, ¿y si te dijéramos que puedes escalar tu aplicación a lo bestia, solo cuando lo necesites, y sin desperdiciar dinero en recursos ociosos cuando no hay tráfico? En este vídeo, hablamos con Jorge Turrado (Principal SRE en Lidl, con más de 110 millones de usuarios, y Mantenedor principal de KEDA) para desvelar la herramienta clave para el autoescalado inteligente en el ecosistema Cloud Native con Kubernetes (k8s): KEDA (Kubernetes Event-driven Autoscaling). Descubre por qué el escalado tradicional por CPU es demasiado lento y reactivo para las cargas asíncronas. Analizamos cómo KEDA extiende las capacidades del HPA (Horizontal Pod Autoscaler) de Kubernetes para que puedas escalar de manera ★PROACTIVA★ basándote en eventos, colas de mensajes (Kafka, Service Bus), bases de datos o muchos otros eventos externos.Aprenderás:- Qué es Kubernetes y por qué su sistema de autoescalado por CPU y memoria y no es suficiente.- Qué es KEDA y por qué se ha convertido en el estándar de facto para el escalado en Kubernetes.- Cómo funciona el autoescalado basado en eventos (no solo CPU o RAM).- Qué es el "Scale to Zero" y cuando puede usarse para optimizar drásticamente los costes en la nube y garantizar la resiliencia de tus aplicaciones.- El impacto real en los costes de la nube al optimizar el uso de tus pods.- Consejos y trucos internos de un mantenedor de KEDA para no caer en errores comunes.- Además, compartimos buenas prácticas de desarrollo que todo programador debe aplicar para que su código funcione correctamente en entornos efímeros y de alta escalabilidad .Si eres desarrollador, DevOps, SRE o responsable de IT, en este vídeo te interesa.¿Qué te parece? ¡Cuéntanos en los comentarios tu peor historia de caída de servidor!👇 RECURSOS Y ENLACES MENCIONADOS:- ¿Qué diferencia hay entre Docker (Contenedores) y Máquinas virtuales?: https://www.campusmvp.es/recursos/post/que-diferencia-hay-entre-docker-contenedores-y-maquinas-virtuales.aspx- El caso de Amazon migrando a un monolito (el original ha desaparecido pero apuntamos a Web Archive: Scaling up the Prime Video audio/video monitoring service and reducing costs by 90%: https://web.archive.org/web/20240719152109/https://www.primevideotech.com/video-streaming/scaling-up-the-prime-video-audio-video-monitoring-service-and-reducing-costs-by-90SECCIONES DE LA CONVERSACIÓN:00:00:00 Introducción: El problema de la escalabilidad y el autoescalado00:00:58 Presentación de Jorge Turrado, SRE y mantenedor de KEDA00:01:43 Definición de SRE y la escala de Lidl International Hub00:05:07 ¿Qué es la Cloud Native Computing Foundation (CNCF)?00:07:45 Kubernetes: el orquestador que le falta a Docker00:17:27 Los dos tipos de autoescalado nativo de Kubernetes (HPA y Cluster Autoscaler)00:24:56 El problema de escalar solo por CPU en aplicaciones asíncronas: KEDA00:37:23 KEDA: la optimización de costes con el escalado a cero (Scale to Zero)00:41:47 Buenas prácticas de desarrollo para entornos autoescalados00:48:45 Arquitecturas: ¿Monolitos o Microservicios para empezar?00:57:19 Habilidades críticas (técnicas y blandas) para un desarrollador en la nube01:02:21 El futuro del autoescalado predictivo y la IA01:05:14 Conclusiones y despedida

Audio
Featured in this Episode

No persons identified in this episode.

Transcription

This episode hasn't been transcribed yet

Help us prioritize this episode for transcription by upvoting it.

0 upvotes
🗳️ Sign in to Upvote

Popular episodes get transcribed faster

Comments

There are no comments yet.

Please log in to write the first comment.