Job Function: Software & Cloud Por qué SoftwareOne?:
SoftwareOne es un proveedor líder mundial de software y soluciones en la nube que está redefiniendo cómo las empresas construyen, compran y gestionan todo en la nube. Al ayudar a los clientes a migrar y modernizar sus cargas de trabajo y aplicaciones -y en paralelo, a navegar y optimizar los cambios de software y nube resultantes
El puesto:
**¿Quieres desarrollar tu carrera en un área principal en los próximos años?**
Si es así, sigue leyendo. Estamos buscando a una persona para unirse a nuestro equipo de Data e IA. Estamos buscando ampliar nuestro conocimiento sobre cualquiera de los principales hiperscalares y necesitamos a una persona que disfrute desarrollando proyectos de data.
**¿Cuáles serán tus funciones?**
Vas a participar en los proyectos de data y de inteligencia artificial. Algunas de tus funciones van a ser:
- Desarrollar Soluciones de Datos: Colaborar con los equipos internos y los stakeholders para entender los requisitos del negocio y desarrollar soluciones de datos efectivas, optimizadas y escalables.
- Implementar Pipelines de Datos: Desarrollar pipelines de datos robustos utilizando Azure Data Factory, Databricks, Azure Fabric o tecnologías similares, así como el uso de SQL avanzado y python, enfocándose en pyspark.
- Crear Modelos de Datos: Diseñar y construir modelos de datos optimizados para soportar análisis avanzados y aplicaciones de BI, asegurando la integridad y la calidad de los datos.
- Optimizar el Rendimiento: Identificar y abordar los cuellos de botella de rendimiento en los pipelines y en las bases de datos, implementando técnicas de optimización y ajuste para mejorar la eficiencia y la escalabilidad.
- Automatizar Procesos: Desarrollar scripts y herramientas de automatización para la implementación, monitorización y mantenimiento continuo de los pipelines y procesos de datos, optimizando la eficiencia operativa.
- Colaborar con Equipos Interdisciplinarios: Trabajar estrechamente con equipos de desarrollo, analistas de datos, científicos de datos y otros stakeholders para comprender sus necesidades de datos y ofrecer soluciones efectivas y orientadas al negocio.
- Proveer Soporte Técnico: Ofrecer soporte técnico y orientación a otros miembros del equipo en el diseño, desarrollo y mantenimiento de soluciones de datos en la nube pública.
- Formación proactiva: Mantenerse al tanto de las últimas tendencias y tecnologías en el campo de la ingeniería de datos y la nube pública, participando en actividades de formación y certificación según sea necesario.
- Contribuir a la Cultura de Datos: Promover una cultura de datos dentro de la empresa, fomentando las mejores prácticas en la gestión y el uso de datos para la toma de decisiones informadas.
Que esperamos de tí:
**¿Qué buscamos en ti?**
Si tienes de 3 a 5 años de experiência trabajando en el área de ingeniería de datos, te estamos buscando.
Necesitamos que tengas un perfil técnico en área de procesamiento masivo de datos, principalmente en proyectos de IA y deltalakes/datalakes/datawarehouse, pero además que tengas buena capacidad para entender las necesidades funcionales del negocio.
Queremos que nos aportes:
- Experiência creando, optimizando y manteniendo pipelines de datos eficientes utilizando servicios como Azure Data Factory, Databricks, Bigquery, AWS Glue, Fabric, DBT, o tecnologías similares; para la ingestión, preprocesado, transformación y enriquecimiento de datos. Se valorará experiência en tecnologías de analítica (tableau, locker studio, power BI, etc)
- Experiência previa demostrable, deseable 5 años, en un rol similar como Data Engineer, preferiblemente con enfoque en alguna nube pública (AWS, GCP y/o Azure).
- Conocimientos profundos de servicios y herramientas orientados al ciclo de vida del dato e IA en alguna de las nubes públicas (AWS, GCP y/o Azure)
- Experiência trabajando en el contexto de arquitecturas de datos masivos escalables y de alto rendimiento y Data Governance. Deseable dentro de un contexto de transformaciones digitales.
- Fuertes habilidades de programación en lenguajes como SQL, Python (pyspark y/o pandas).
- Excelentes habilidades de resolución de problemas, buenas prácticas de programación y atención al detalle.
- Capacidad para trabajar de forma independiente y en equipo en un entorno dinámico y proactivo.
- Certificaciones relevantes de AWS, Azure, GCP y/o Databricks serán muy favorables en el proceso de selección.
- Deseable experiência trabajando en proyectos de IA Generativa.** Valoramos muy positivamente**:
- Experiência en alguna nube pública (AWS, Azure, GCP.
- Soft Skills incluyendo la comunicación oral y escrita.
- Perfiles proactivos, transparentes y con liderazgo.
- Alto nível de inglés hablado y escrito.