DBA PostgreSQL en GCP
Intégrate a la Tribu ¡
Somos los coding wizards, un equipo de expertos en tecnología apasionados por lo que hacemos. Creemos en la diversidad y la inclusión, y nos esforzamos por cultivar un ambiente de trabajo positivo y colaborativo.
Nos apasiona la innovación y siempre estamos buscando nuevas maneras de mejorar nuestras habilidades y conocimientos. Trabajar en Mobiik significa estar desafiado y aprender constantemente, mientras se desarrolla un equilibrio saludable entre trabajo y vida personal.
Estamos buscando un DBA PostgreSQL en GCP para unirse a nuestro equipo de consultoría tecnológica. Serás responsable de la gestión de proyectos relacionados con el desarrollo de software, la nube de Azure y inteligencia artificial, asegurando la entrega de soluciones de alta calidad para nuestros clientes.
Objetivo del Rol:
Liderar la migración de datos desde SQL Server on-premises a PostgreSQL en Google Cloud Platform (GCP). Diseñar arquitecturas de bases de datos en PostgreSQL para nuevos microservicios, y construir estructuras optimizadas en BigQuery para reportes en Looker. Garantizar la integridad, disponibilidad, escalabilidad y seguridad de los datos, considerando datos históricos migrados y nuevos datos generados por microservicios.
Responsabilidades Clave:
- Migración de Datos:
- Planificar y ejecutar la migración de datos históricos desde SQL Server on-premises a PostgreSQL en GCP (Cloud SQL), asegurando calidad y consistencia.
- Implementar procesos ETL/ELT usando herramientas como Dataflow.
- Desarrollar y automatizar pipelines de ingestión desde PostgreSQL hacia BigQuery para almacenamiento y análisis de datos.
- Diseñar e implementar particiones y clustering en BigQuery para mejorar la eficiencia de las consultas.
- Diseño y Administración de PostgreSQL en GCP:
- Diseñar e implementar arquitecturas de bases de datos PostgreSQL para microservicios desplegados en GCP.
- Crear y administrar instancias de Cloud SQL (PostgreSQL) con alta disponibilidad, recuperación ante desastres y monitoreo proactivo.
- Desarrollar modelos de datos eficientes que soporten microservicios con principios de escalabilidad y resiliencia.
- Optimizar índices, consultas y configuraciones para un rendimiento óptimo en PostgreSQL.
- Creación de Estructuras en BigQuery:
- Diseñar tablas, vistas y esquemas optimizados en BigQuery para almacenamiento masivo de datos y análisis eficiente.
- Integrar datos en BigQuery y habilitar análisis complejos con SQL avanzado.
- Configurar pipelines de datos en BigQuery utilizando servicios como Cloud Functions, Dataflow y Pub/Sub.
- Integración y Automatización:
- Desarrollar e implementar procesos CI/CD para la gestión de bases de datos y estructuras en BigQuery.
- Automatizar procesos de actualización de datos, backups y recuperación en caso de desastres.
- Monitoreo y Seguridad:
- Implementar monitoreo avanzado mediante Cloud Monitoring y Logging para PostgreSQL y BigQuery.
- Aplicar políticas de acceso, autenticación robusta y cifrado en tránsito y en reposo.
- Asegurar la disponibilidad y rendimiento óptimo de Cloud SQL (PostgreSQL) y BigQuery.
- Documentación y Transferencia de Conocimiento:
- Crear documentación detallada sobre arquitecturas, procesos de migración, configuración de bases de datos y mecanismos de monitoreo.
- Brindar asesoría técnica y capacitación a equipos internos sobre mejores prácticas y uso adecuado de PostgreSQL y BigQuery.
Requisitos Técnicos:
- Bases de datos: PostgreSQL (Cloud SQL), SQL Server (On-premises), BigQuery.
- Diseño de Microservicios: Creación de esquemas PostgreSQL escalables, particionamiento, indexación avanzada, optimización de consultas.
- Plataformas en GCP:
- Cloud SQL (PostgreSQL), BigQuery, Dataflow.
- ETL/ELT: Dataflow.
- Versionado y Control de Código:
- CI/CD para bases de datos y BigQuery.
Habilidades Blandas:
- Comunicación efectiva con stakeholders técnicos y no técnicos.
- Documentación clara y estructurada.
- Liderazgo técnico y colaboración con equipos de desarrollo, DevOps.
- Adaptabilidad y enfoque en la resolución de problemas complejos.
- Gestión de tiempo y priorización de tareas.
Experiencia Requerida:
- Mínimo 5 años de experiencia en administración de bases de datos.
- Al menos 2 años trabajando con PostgreSQL y BigQuery en GCP.
- Experiencia comprobada en migraciones de datos históricos y diseño de estructuras para microservicios.
- Implementación de pipelines de datos en GCP con Dataflow.
Deseable:
- Certificaciones en Google Cloud Platform (Professional Data Engineer, Professional Cloud Architect).
- Experiencia en proyectos de alta disponibilidad, escalabilidad y procesamiento masivo de datos en BigQuery
Ofrecemos:
- Sueldo competitivo
- Prestaciones de ley y superiores:
- SGMM
- Vales de despensa
- Bono por home office
- 5 días económicos adicionales a tus vacaciones
- Dia libre de cumpleaños
- Plan de vida y carrera.
- Modalidad: Remoto en CDMX
En Mobiik, valoramos su tiempo y nos esforzamos por añadir valor a cada interacción. Si estás interesado en unirte a nuestro equipo de coding wizards, no dudes en ponerte en contacto con nosotros.
¡Estamos deseando conocerte y trabajar juntos para crear algo grande!
Solicitar este puesto
*
indica un campo obligatorio