Descripción de la empresa
Somos un Consultora digital, internacional y ágil. En la era de la post-transformación digital, nos esforzamos para que cada uno de nuestros 28.000 profesionales pueda renovarse continuamente.
Cada uno de ellos puede diseñar su itinerario profesional de acuerdo a sus preferencias, emprender junto a sus clientes para construir en la práctica un mundo más positivo, innovar en cada uno de los 27 países y conciliar su carrera profesional con su bienestar personal.
Nuestros 28.000 atletas digitales están orgullosos de haberse certificado Top Employer Europe 2024.
Descripción del empleo
- Desplegar prácticas de DevOps, DataOps y MLOps en el marco de las tecnologías Big Data existentes en la organización.
- Elaborar y mantener documentación técnica en espacios colaborativos.
- Definir el ámbito tecnológico y diseñar la arquitectura de la plataforma de datos corporativa.
- Integrar componentes de arquitecturas Big Data según los casos de uso.
- Asegurar que las plataformas cumplen con los requisitos del negocio.
- Dar soporte técnico en la implantación alineada con metodologías ágiles.
- Diseñar la arquitectura del dato y el modelo del dato desde una visión organizativa.
- Definir una arquitectura de metadatos para interoperabilidad y gobernanza.
- Implementar políticas de seguridad en plataformas Big Data.
- Garantizar la calidad del dato en su ciclo de vida mediante mecanismos y auditorías.
- Diseñar soluciones de analítica avanzada e inteligencia artificial alineadas con el plan estratégico.
- Administrar y operar plataformas Big Data, incluyendo despliegue de software en entornos de desarrollo, pruebas y producción.
- Participar en el diseño e implementación de soluciones de Business Intelligence.
Requisitos
Experiencia Profesional Mínima
- Al menos 5 años de experiencia en proyectos Big Data en entornos híbridos (Apache Hadoop y Apache Spark).
- Experiencia como arquitecto/a técnico/a de Big Data.
- Liderazgo en implantación y definición técnica/arquitectura de datos.
- Participación activa en arquitecturas técnicas en entornos híbridos durante al menos 2 años.
Herramientas y tecnologías críticas:
- Máquinas Linux, instalación de paquetes (Crítico)
- Lenguaje de comandos Unix, Bash, JSON
- Python
- Protocolos de internet: HTTP, HTTPS, SSL
- Herramientas Unix: CURL, NETCAT, IP
- API REST
- SOLR: instalación, manejo de APIs, backup, restore (Crítico)
- Entorno On-premise
- OPENSHIFT
- CLOUDERA: administración, Spark, Yarn, Kerberos (Crítico)
--> SE DESCARTARÁN CANDIDATURAS QUE NO TENGAN EXPERIENCIA EN SOLR, OPENSHIFT, CLOUDERA, LINUX Y PYTHON.
Entornos Cloud:
- Fundamentos de AWS
- Fundamentos de Azure
Información adicional
Formación:
- Mínimo 250 horas en tecnologías relacionadas con Big Data e Inteligencia Artificial.
Certificaciones valoradas:
Especial Interés:
- CDP Generalist
- MapR Certified Spark Developer
- CDP Administrator – Private Cloud Base
- CCA Spark and Hadoop Developer
- CCA Administrator
Otras:
- CCA Data Analyst
- CCP Data Engineer
- APM – Certified Associate in Project Management
- Prince2 Foundation
- Certificaciones en Scrum / Scrum Master
- PMI-ACP: PMI Agile Certified Practitioner
- Prince2 Agile
- Cualquier otra certificación oficial relacionada con tecnologías Big Data