Descripción
¡En Monokera buscamos un Senior Data Engineer apasionado y con visión estratégica! Serás una pieza clave en el diseño, implementación y mejora de soluciones analíticas basadas en Big Data. Compartirás con un equipo talentoso, promoverás las mejores prácticas en la arquitectura de datos y colaborarás con otros equipos en proyectos de alto impacto. Si te motiva resolver desafíos complejos, optimizar infraestructuras de datos y quieres formar parte de una empresa que está transformando la industria aseguradora en Latam, ¡esta oportunidad es para ti! Únete a Monokera y lleva nuestras soluciones de datos al siguiente nivel.
¿Cuál será tu rol trabajando con nosotros?
Como Senior Data Engineer en Monokera, serás responsable de diseñar y optimizar nuestras soluciones de datos, así como de liderar a un equipo técnico en la adopción de las mejores prácticas. Tus responsabilidades incluirán:
- Diseñar, implementar y mejorar soluciones analíticas utilizando tecnologías de Big Data que permitan resolver desafíos complejos y escalar nuestras plataformas.
- Contribuir en la arquitectura de datos, asegurando que las soluciones sean escalables, eficientes y alineadas con las mejores prácticas.
- Liderar y mentorizar al equipo, fomentando una cultura de colaboración y aprendizaje continuo, y asegurando la implementación de soluciones de alta calidad.
- Colaborar estrechamente con otros equipos de desarrollo y producto para integrar datos y generar insights valiosos para la toma de decisiones.
- Optimizar procesos de ETL y pipelines de datos utilizando herramientas de última generación y garantizando la integridad y disponibilidad de los datos.
- Mantenerse al día con las últimas tecnologías y tendencias, impulsando la innovación y el desarrollo dentro del equipo de datos.
¿Qué esperamos de ti?
- Que tengas más de 5 años de experiencia diseñando, implementando y mejorando soluciones analíticas con Big Data.
- Que hayas liderado equipos técnicos durante al menos 2-4 años, implementando soluciones técnicas escalables y eficientes.
- Dominio de lenguajes de programación como Python y Java.
- Experiencia con plataformas de procesamiento de datos como Apache Spark y Hadoop.
- Conocimiento sólido en bases de datos SQL (PostgreSQL, MySQL) y NoSQL (MongoDB, Cassandra, Redis), así como en Data Warehousing (Amazon Redshift, Google BigQuery).
- Experiencia trabajando con herramientas de ETL como Apache NiFi y Apache Airflow.
- Experiencia en plataformas de la nube como AWS, Azure, o GCP durante al menos 2-4 años.
- Conocimiento en contenedores y orquestación de servicios utilizando Docker y Kubernetes.
- Que seas una persona con capacidad de liderazgo, con habilidades de comunicación y motivación para resolver problemas complejos en entornos dinámicos.