Ph3Why SoftwareOne? /h3pSoftwareOne es un proveedor líder mundial de software y soluciones en la nube que está redefiniendo cómo las empresas construyen, compran y gestionan todo en la nube. Al ayudar a los clientes a migrar y modernizar sus cargas de trabajo y aplicaciones, SoftwareOne desbloquea el valor de la tecnología. Los 8.900 empleados de la empresa están motivados para ofrecer una cartera de 7.500 marcas de software con capacidades de venta y entrega en 60 países. Con sede en Suiza, SoftwareOne cotiza en la bolsa SIX Swiss Exchange con el símbolo SWON. Visítenos en /p h3The role /h3pVas a participar como bArquitecto en los proyectos de Data IA /b que se llevan a cabo. /p p¿Qué harás? /p ul liSerás responsable de diseñar y establecer la arquitectura de datos adecuada para nuestros proyectos en la nube (generalmente AWS y GCP). Esto implica comprender los requisitos empresariales y técnicos, identificar las necesidades de almacenamiento, procesamiento y análisis de datos, y diseñar soluciones escalables y eficientes utilizando los servicios de la nube de AWS y GCP. /li liTrabajarás en estrecha colaboración con el equipo de Ingenieros de Datos y Científicos de Datos para comprender los requisitos y desafíos del cliente. Brindar orientación y asesoramiento técnico en la implementación de soluciones de datos, asegurando que se sigan las mejores prácticas y estándares de la industria. /li liEvaluar y seleccionar los servicios y herramientas de AWS y GCP más adecuados para cada proyecto. Esto implica comprender las fortalezas y limitaciones de los servicios de la nube, así como mantenerse actualizado sobre las últimas tendencias y características en el campo de la ingeniería y ciencia de datos en la nube. /li liDiseñar y desarrollar pipelines de datos eficientes y confiables utilizando las capacidades de procesamiento y almacenamiento de datos de AWS y GCP. Esto incluye la integración de diferentes fuentes de datos, la transformación de datos, la limpieza de datos y la carga en almacenes de datos o plataformas de análisis. /li liProporcionar asesoramiento técnico al equipo de Ingenieros de Datos y Científicos de Datos en la selección de algoritmos, técnicas de modelado de datos y estrategias de análisis. Participar en revisiones de código y garantizar la calidad y robustez de las soluciones implementadas /li liEstar en contacto permanente con lassoluciones de terceros que complementan el ecosistema de Data IA, asegurando el conocimiento de las mismas dentro del equipo. /li /ul h3What we need to see from you /h3pSi tienes más de b4-5 años de experiencia trabajando en el área de Data e IA y sobre todo, experiencia en proyectos como arquitecto de datos en entornos cloud /b, te estamos buscando. /p pNecesitamos que tengas un perfil técnico en bData e IA /b, pero además que tengas buena capacidad para entender las necesidades funcionales del negocio. /p pQueremos ver en ti /p ul liUn sólido entendimiento de los principios y las mejores prácticas de diseño de arquitecturas de datos, incluyendo la selección de modelos de datos apropiados, la elección de almacenes de datos y la implementación de pipelines de datos eficientes. /li liExperiencia en diseño e implementación de datalakes, deltalakes y/o datawarehouses. /li liConocimiento profundo de los servicios y herramientas ofrecidos por bAWS /b (Amazon Web Services) by/o /b bGCP /b (Google Cloud Platform). Esto incluye servicios de almacenamiento de datos como S3, Cloud Storage y BigQuery, servicios de procesamiento de datos como AWS Glue y Cloud Dataflow, así como servicios de análisis y aprendizaje automático como AWS Redshift y GCP BigQuery ML. /li libLenguajes de programación: /b Experiencia en Python. /li libTecnologías de bases de datos: /b Familiaridad con diferentes tipos de bases de datos, como bases de datos relacionales (por ejemplo, MySQL, PostgreSQL) y bases de datos NoSQL (por ejemplo, MongoDB, Cassandra). /li libETL/ELT y procesamiento de datos: /b Conocimiento de técnicas y herramientas de extracción, transformación y carga (ETL) o extracción, carga y transformación (ELT) utilizadas para manipular y transformar datos. Experiencia en el uso de herramientas como AWS Glue, GCP Dataflow o Apache Spark para el procesamiento distribuido de datos. /li libMLOps /b: Experiencia en la implementación de prácticas de MLOps. /li libAnálisis y visualización de datos: /b Comprender los conceptos y técnicas de análisis de datos, incluyendo el uso de bibliotecas y herramientas populares como Tableau, Quicksight, Looker o Power BI para el análisis y visualización de datos. /li libSeguridad y cumplimiento normativo: /b Conocimiento de las prácticas y medidas de seguridad para proteger los datos confidenciales y garantizar el cumplimiento normativo. /li libBuenas prácticas y estándares: /b Conocimiento de las mejores prácticas y estándares en el campo de la ingeniería y la ciencia de datos, incluyendo la gestión de la calidad de los datos, la gobernanza de datos, la documentación de código y el trabajo en equipo colaborativo. /li libHabilidades de comunicación: /b Capacidad para comunicarse eficazmente con el equipo técnico y no técnico. /li liSi tu experiencia es en Azure, y apenas has trabajado con AWS o GCP, también podemos valorar tus capacidades. /li /ul h3Job Function /h3pSoftware Cloud /p /p #J-18808-Ljbffr