
Confluent Developer Skills for Building Apache Kafka



Actualmente no existen convocatorias programadas para estos cursos
Acerca de este curso
La Plataforma Confluent Kafka es un entorno de transmisión de datos que permite organizar y administrar grandes cantidades de datos que llegan cada segundo a los entry points de organizaciones modernas en diversas industrias desde minoristas, logística, fabricación y servicios financieroshasta redes sociales en línea. Con Confluent, este creciente flujo de datos organizado en un modelo Publish/Subscribe, a menudo no estructurado e increíblemente valioso. Kafka Confluent se convierte en una plataforma de datos de flujo unificado y de fácil acceso que siempre está disponible para muchos usos en toda la organización. Estos usos pueden abarcar fácilmente desde el análisis de Big Data por lotes con Hadoop y la alimentación de sistemas de monitorización en tiempo real hasta las tareas de integración de datos de gran volumen más tradicionales que requieren un backbone de alto rendimiento, extracción, transformación y carga (ETL). Confluent Kafka ofrece a los clientes distintas clases de formación, tanto para los administradores (implementación) como para desarrolladores (creación de clientes pub/sub) y el método más moderno de consulta de datos con KSQL.
En este curso práctico para desarrolladores de Apache Kafka de tres días de duración, aprenderás a crear una aplicación que pueda publicar datos y suscribirlos a un clúster de Kafka. Aprenderás el rol de Kafka en la línea moderna de distribución de datos, analizarás los conceptos y componentes de la arquitectura de Kafka y revisarás las API para desarrolladores de Kafka. El curso también cubre otros componentes en la plataforma Confluent más amplia, como Kafka Connect y Kafka Streams.
PUE es Training Partner oficial de Confluent, autorizado por dicha multinacional para impartir formación oficial en tecnologías Confluent.
PUE está también acreditado y reconocido para realizar servicios de consultoría y mentoring en la implementación de soluciones Confluent en el ámbito empresarial con el consiguiente valor añadido en el enfoque práctico y de negocio del conocimiento que se traslada en sus cursos oficiales.
A quién va dirigido
Esta formación está diseñada para desarrolladores de aplicaciones, desarrolladores de ETL (extracción, transformación y carga) y científicos de datos que necesitan interactuar con clústeres Kafka como fuente o destino de datos.
Se recomienda que los estudiantes estén familiarizados con el desarrollo en Java, .NET, C# o Python. Se requiere conocimiento práctico de la arquitectura de Apache Kafka, adquirida por medio de haber trabajado con la plataforma o mediante el curso Confluent Fundamentals for Apache Kafka. Puedes comprobar tu conocimiento de Apache Kafka por medio de este cuestionario: https://cnfl.io/fundamentals-quiz
Objetivos del curso
Al final de la formación, el estudiante obtendrá habilidades relacionadas con:
- Cómo crear una aplicación que pueda publicar y suscribirse a los datos desde un clúster de Apache Kafka®.
- El rol de Kafka en la línea de distribución de datos moderna, conocer los conceptos y componentes arquitectónicos principales de Kafka.
- Conocer las APIs de desarrollo de Kafka.
- Otros componentes en la plataforma Confluent más amplia, como Schema Registry, el proxy REST y KSQL.
Contenidos
Fundamentos de Apache Kafka
- La Plataforma Streaming
- El Commit Log y el Log Structured Data Flow
- Elementos de datos, cuestiones, segmentos y particiones
- Replicación y compactación de Logs
- Kafka Clients - Producers, Consumers y Kafka Connect
- Diseño de un Producer, serialización y particionamiento
- Consumer Groups
Arquitectura de Kafka
- Commit Log de Kafka, alta concurrencia y almacenamiento
- Réplicas para la confiabilidad
- Particiones y Consumer Groups para la escalabilidad
- Visión general sobre seguridad en Kafka
Desarrollo con Kafka
- Acceso programado a Kafka
- Escribir un Producer en Java
- Uso de la REST API para escribir un Producer
- Path de lectura de Kafka
- Escribir un Consumer en Java
- Uso de la REST API para escribir un Consumer
Desarrollo avanzado con Kafka
- Tamaño y durabilidad de los mensajes
- Habilitar Exactly Once Semantics (EOS)
- Especificar Offsets
- Actividad y rebalanceo de un Consumer
- Realizar manualmente Commit sobre Offsets
- Particionamiento de datos
Administración de Esquemas en Kafka
- Introducción a Avro y la serialización de datos
- Esquemas Avro y evolución de los mismos
- Uso del registro de Esquemas
Data Pipelines con Kafka Connect
- Motivos para utilizar Kafka Connect
- Tipos de Connectors
- Implementación de Kafka Connect
- Modo independiente y modo distribuido
- Configuración de Connectors
Procesamiento en tiempo real con Kafka Streams
- Introducción a la API de Kafka Streams
- Conceptos de Kafka Streams
- Creación de una aplicación Kafka Streams
- Kafka Streams por medio de ejemplos
- Administración del procesamiento Kafka Streams
Procesamiento en tiempo real con Confluent KSQL
- KSQL para Apache Kafka
- Escribir consultas KSQL
Arquitectura gestionada por eventos
- Plataforma Event Driven
- Desde CQRS al abastecimiento de eventos
- Microservicios
Confluent Cloud
- Visión general de Confluent Cloud
- Uso de Cloud CLI y Web UI
- Configurar Kafka Clients