REQUISITOS IMPRESCINDIBLES:
Titulación universitaria de grado en informática, telecomunicaciones, industriales o otras materias relacionadas con tecnologías de la información.
Conocimiento de programación: Python, API REST, Bash/Shell script, SQL y NoSQL.
Conocimiento de modelado de datos en tecnologías de Big Data (por ejemplo: Impala, Hive, HBase, Solr).
Conocimiento de tecnologías para la gestión de bases de datos, transformación de datos, automatización del flujo de datos, ingesta de datos, minería de datos, ETL, procesamiento en tiempo real de los datos, data buffering, cloud computing o para visualización de datos.
Conocimiento de sistema operativo UNIX: Debian/Ubuntu, CentOS/RHEL.
REQUISITOS VALORABLES:
Experiencia con plataformas cloud de datos (Azure, AWS o GCP) y herramientas como Databricks, Spark o Airflow.
Conocimientos de DevOps/DataOps, integración continua y despliegue automatizado.
Habilidad en modelado de datos, calidad y gobierno del dato.
Certificaciones técnicas en ingeniería de datos o cloud (Azure DP-203, AWS Data Analytics, etc.).
TITULACION REQUERIDA:
Titulación universitaria en Ingeniería Informática, Telecomunicaciones, Matemáticas o experiencia equivalente en proyectos de datos.
AÑOS EXPERIENCIA EN PERFIL SOLICITADO:
Experiencia mínima de 2-3 años en proyectos de datos.