Acerca de este curso
La Plataforma Confluent Kafka es un entorno de transmisión de datos que permite organizar y administrar grandes cantidades de datos que llegan cada segundo a los entry points de organizaciones modernas en diversas industrias desde minoristas, logística, fabricación y servicios financieroshasta redes sociales en línea. Con Confluent, este creciente flujo de datos organizado en un modelo Publish/Subscribe, a menudo no estructurado e increíblemente valioso. Kafka Confluent se convierte en una plataforma de datos de flujo unificado y de fácil acceso que siempre está disponible para muchos usos en toda la organización. Estos usos pueden abarcar fácilmente desde el análisis de Big Data por lotes con Hadoop y la alimentación de sistemas de monitorización en tiempo real hasta las tareas de integración de datos de gran volumen más tradicionales que requieren un backbone de alto rendimiento, extracción, transformación y carga (ETL). Confluent Kafka ofrece a los clientes distintas clases de formación, tanto para los administradores (implementación) como para desarrolladores (creación de clientes pub/sub) y el método más moderno de consulta de datos con KSQL.
En este curso práctico para desarrolladores de Apache Kafka de tres días de duración, aprenderás a crear una aplicación que pueda publicar datos y suscribirlos a un clúster de Kafka. Aprenderás el rol de Kafka en la línea moderna de distribución de datos, analizarás los conceptos y componentes de la arquitectura de Kafka y revisarás las API para desarrolladores de Kafka. El curso también cubre otros componentes en la plataforma Confluent más amplia, como Kafka Connect y Kafka Streams.
PUE es Training Partner oficial de Confluent, autorizado por dicha multinacional para impartir formación oficial en tecnologías Confluent.
PUE está también acreditado y reconocido para realizar servicios de consultoría y mentoring en la implementación de soluciones Confluent en el ámbito empresarial con el consiguiente valor añadido en el enfoque práctico y de negocio del conocimiento que se traslada en sus cursos oficiales.
A quién va dirigido
Esta formación está diseñada para desarrolladores de aplicaciones, desarrolladores de ETL (extracción, transformación y carga) y científicos de datos que necesitan interactuar con clústeres Kafka como fuente o destino de datos.
Se recomienda que los estudiantes estén familiarizados con el desarrollo en Java, .NET, C# o Python. Se requiere conocimiento práctico de la arquitectura de Apache Kafka, adquirida por medio de haber trabajado con la plataforma o mediante el curso Confluent Fundamentals for Apache Kafka. Puedes comprobar tu conocimiento de Apache Kafka por medio de este cuestionario: https://cnfl.io/fundamentals-quiz
Objetivos del curso
Al final de la formación, el estudiante obtendrá habilidades relacionadas con:
- Cómo crear una aplicación que pueda publicar y suscribirse a los datos desde un clúster de Apache Kafka®.
- El rol de Kafka en la línea de distribución de datos moderna, conocer los conceptos y componentes arquitectónicos principales de Kafka.
- Conocer las APIs de desarrollo de Kafka.
- Otros componentes en la plataforma Confluent más amplia, como Schema Registry, el proxy REST y KSQL.
Contenidos
Fundamentos de Apache Kafka
- La Plataforma Streaming
- El Commit Log y el Log Structured Data Flow
- Elementos de datos, cuestiones, segmentos y particiones
- Replicación y compactación de Logs
- Kafka Clients - Producers, Consumers y Kafka Connect
- Diseño de un Producer, serialización y particionamiento
- Consumer Groups
Arquitectura de Kafka
- Commit Log de Kafka, alta concurrencia y almacenamiento
- Réplicas para la confiabilidad
- Particiones y Consumer Groups para la escalabilidad
- Visión general sobre seguridad en Kafka
Desarrollo con Kafka
- Acceso programado a Kafka
- Escribir un Producer en Java
- Uso de la REST API para escribir un Producer
- Path de lectura de Kafka
- Escribir un Consumer en Java
- Uso de la REST API para escribir un Consumer
Desarrollo avanzado con Kafka
- Tamaño y durabilidad de los mensajes
- Habilitar Exactly Once Semantics (EOS)
- Especificar Offsets
- Actividad y rebalanceo de un Consumer
- Realizar manualmente Commit sobre Offsets
- Particionamiento de datos
Administración de Esquemas en Kafka
- Introducción a Avro y la serialización de datos
- Esquemas Avro y evolución de los mismos
- Uso del registro de Esquemas
Data Pipelines con Kafka Connect
- Motivos para utilizar Kafka Connect
- Tipos de Connectors
- Implementación de Kafka Connect
- Modo independiente y modo distribuido
- Configuración de Connectors
Procesamiento en tiempo real con Kafka Streams
- Introducción a la API de Kafka Streams
- Conceptos de Kafka Streams
- Creación de una aplicación Kafka Streams
- Kafka Streams por medio de ejemplos
- Administración del procesamiento Kafka Streams
Procesamiento en tiempo real con Confluent KSQL
- KSQL para Apache Kafka
- Escribir consultas KSQL
Arquitectura gestionada por eventos
- Plataforma Event Driven
- Desde CQRS al abastecimiento de eventos
- Microservicios
Confluent Cloud
- Visión general de Confluent Cloud
- Uso de Cloud CLI y Web UI
- Configurar Kafka Clients