Randstad Argentina

Ingeniero de datos

Posted: 3 days ago

Job Description

En Randstad Digital, buscamos un Ingeniero de Datos para nuestro cliente del rubro retail. Contratación: Full-time. Por tiempo indeterminado. Modalidad: Híbrida. Responsabilidades: Diseño y Construcción de Pipelines: Desarrollar y mantener procesos ETL/ELT robustos y escalables utilizando herramientas como Apache Airflow, SSIS, dbt o Talend.Gestión de Infraestructura Cloud: Implementar y gestionar soluciones de datos en plataformas en la nube (AWS, Azure o GCP), utilizando servicios como AWS Glue, Redshift, Azure Data Factory, Google BigQuery, S3, etc.Modelado y Almacenamiento: Diseñar y administrar nuestras soluciones de almacenamiento de datos, incluyendo Data Lakes y Data Warehouses (ej. Snowflake, BigQuery, Redshift).Desarrollo y Optimización: Escribir código de alta calidad, principalmente en Python y SQL (y deseablemente Scala), para la transformación y procesamiento de datos.Procesamiento de Big Data: Implementar soluciones para el procesamiento de grandes volúmenes de datos, utilizando herramientas de orquestación y streaming como Apache Spark, Kafka y/o Hadoop.Calidad y Gobernanza: Asegurar la calidad, integridad y disponibilidad de los datos, colaborando con los analistas para definir y aplicar estándares.Colaboración: Trabajar de cerca con Analistas de Datos y Científicos de Datos para entender sus necesidades y proveerles los conjuntos de datos limpios y listos para el análisis.formas de BI, optimizando el rendimiento de las consultas y reportes.Requisitos: Experiencia de al menos 5 años en roles similares. Fuerte dominio de Python y SQL Avanzado para la manipulación y procesamiento de datos.Experiencia comprobada construyendo pipelines con herramientas de orquestación (ej. Apache Airflow, dbt) y/o herramientas ETL tradicionales (ej. SSIS, Talend).Experiencia práctica en al menos una plataforma de nube principal (AWS, Azure o GCP) y sus servicios de datos. Experiencia trabajando con diversas bases de datos SQL (ej. PostgreSQL, MySQL) y/o NoSQL (ej. MongoDB) y Data Warehouses en la nube (Snowflake, BigQuery).Conocimiento (idealmente experiencia) en herramientas del ecosistema Big Data como Spark, Kafka o Hadoop.Sólido entendimiento de las arquitecturas de Data Warehouse y Data Lake.Si contás con la experiencia requerida y la propuesta es de tu interés, no dudes en postularte. ¡Te estamos esperando!

Job Application Tips

  • Tailor your resume to highlight relevant experience for this position
  • Write a compelling cover letter that addresses the specific requirements
  • Research the company culture and values before applying
  • Prepare examples of your work that demonstrate your skills
  • Follow up on your application after a reasonable time period

Related Jobs