Senior Software Engineer

Location: Madrid, Madrid ES


This position is no longer open.

Requisition Number: 205855

Position Title: Analytics Consulting III

External Description:

Position Overview

As a Senior Software Engineer you will provide technical leadership to clients in a team that designs and develops path-breaking large-scale Big Data and Analytics solutions. You mentor our client on the state-of-the-art technologies and tools, covering the whole ecosystem from infrastructure and foundation ones (as Hadoop, HDFS, Hive, Yarn, Kafka, Flume, Spark, Sqoop and No-SQL databases), to the ones related to Data Governance, Data Pipelines, and Analytics tools.

You would also be requested to design and develop code, scripts, and data pipelines that leverage structured and unstructured data integration from multiple sources, using Shell scripts, Java, C, Scala, Python and related languages, and your deep knowledge of the ecosystem environment. You may also participate in architecting and installing complex software environments. You may lead small teams and coordinate your team’s activities. You participate and lead customer workshops, and provide seniority and guidance on how to address our customer’s concerns, and tough leadership while delivering on our commitments.

Additionally, as a senior member of our Consulting team, you will help Teradata establish thought leadership in the Big Data space by contributing to white papers, technical commentary and representing our company at industry conferences.

This position offers the opportunity to be at the forefront of the growing Big Data and Analytics market. The successful individual possesses knowledge of past and modern data architecture patterns, a strong sense of the art of the possible and, at the same time, can balance it with the requirements of large organizations to build reliable data environments. The right candidate is excited about working hands-on as well as providing strategic guidance to some of the biggest and most well-known organizations.


Main Responsibilities:

Your main responsibilities are to deliver on our commitments and to advise organizations on how to make Big Data and Analytic technologies work for them. You will be invaluable member of our delivery teams working with the most ambitious customers. You will have a chance to learn and work with multiple technologies and Thought Leaders in the Big Data space.

In addition:

  • Support Sales Activities - You may be requested to support the sales team in demonstrating our clients the benefits of modern data architectures, and to position Teradata as the trusted advisor of choice.
  • Develop customer relationship - As a Teradata ambassador in our clients you will develop deep relationships with stakeholders at your level in their organizations. You proactively advise on needs and issues, and deriving actionable solutions. Provide patterns and strategies for common tasks.

Knowledge, Skills and Abilities

  • Excellent interpersonal skills. Strong verbal and written communication, with good exposure to working in a cross-cultural environment. You may be requested to communicate and present some topics to small audiences. Experienced in writing documents that communicate complex technical topics in an accessible manner.
  • Experience with data architectures. Knowledge and experience of Big Data and/or Analytics technologies and tools, as the Hadoop ecosystem, Apache Hive, and Spark, among others. Sound knowledge of data governance and security, and data-related methodologies.
  • At least some experience in other data platforms, such as relational database systems, data warehouses or other OLAP systems, and in delivering enterprise-level ETL pipelines, data workflows, migrations and lifecycles, is also requested.
  • A strong background on software development, continuous integration, tooling and software architectures is needed, either in in enterprise environments, system integration, or science-related ones. You are proficient in either Java, Scala, C, Python, SQL, Ruby, Clojure, etc. You may also have some experience with Tableau, Shiny, R, Javascript, ELK Stack, Solr, and so forth.

Job Qualifications: 


  • Solid experience with Spark and Scala.
  • Hand-on experience with the Hadoop stack and related Big Data technologies: Hive, Spark, Yarn, Kafka, Flume, HBase, Sqoop. Knowledge and experience of structured, semi-structured and unstructured data.
  • A strong background on software development, continuous integration, tooling and software architectures and software development patterns is needed, either in in enterprise environments, system integration, or science-related ones. Experience programming in Java, Scala, Python and/or SQL.
  • Experience with Unix/Linux (Bash scripting, ssh tunneling, networking (netstat, lsof, ifconfig) and Unix piping.
  • Experience in Agile Methodologies (e.g Scrum, Kanban)
  • Professional or academic background that includes mathematics and statistics.
  • Experience with SQL and relational database design and methods for efficiently retrieving data.
  • Experience with NoSQL databases (HBase, Cassandra, MongoDB). 
  • Experience with Search technologies (Solr, ELK Stack).
  • Strong analytical skills and creative problem solver.
  • Excellent verbal and written communications skills.
  • Strong team player capable of working in a demanding environment.


  • Experience whit Git or CI tools (e.g. Jenkins, Gitlab, etc)
  • Experience with Docker containers and orchestration platforms such as ECS, Kubernetes, Mesos and/or Docker Swarm.
  • Experience with cloud services from AWS, GCP and/or Azure (e.g. EMR, S3, AWS Lambda, Google Cloud DataProc, HDInsight,…).
  • Good understanding of Data Science fundamentals.

Education And Experience

  • 5 years or more experience in relevant roles.
  • Computer Science, Mathematics, Physics, Engineering, or other relevant degree.
  • Previous consulting experience.

Complementary Information

We offer you a not average place to work: we are inspiring and passionate people. We may work hard at times, but always in a dynamic, relaxed and collaborative culture. We offer you the chance of joining a rapidly expanding organization with ambitious growth targets, where you can really make the difference and shape the future.

Position is based in Spain. However, we are often required to spend time on-site with our customers, mainly local but also international ones. You will be required to participate in travel-based work as a Teradata Think Big Analytics team member. Spanish and English business-level is mandatory.



Como Ingeniero de Software Senior, proporcionará liderazgo técnico a los clientes en un equipo que diseña y desarrolla soluciones de Big Data y Análisis a gran escala. Asesora a nuestro cliente en las tecnologías y herramientas más avanzadas, cubriendo todo el ecosistema desde infraestructura y bases (como las bases de datos Hadoop, HDFS, Hive, Yarn, Kafka, Flume, Spark, Sqoop y No-SQL). a las relacionadas con las herramientas de gobernabilidad de datos, tuberías de datos y análisis.

También se le solicitará que diseñe y desarrolle código, scripts y tuberías de datos que aprovechen la integración de datos estructurados y no estructurados de múltiples fuentes, utilizando scripts de Shell, Java, C, Scala, Python y lenguajes relacionados, y su profundo conocimiento del entorno del ecosistema. . También puede participar en la arquitectura e instalación de entornos de software complejos. Puede liderar equipos pequeños y coordinar las actividades de su equipo. Usted participa y dirige los talleres para clientes, y proporciona antigüedad y orientación sobre cómo abordar las inquietudes de nuestros clientes y el liderazgo resistente al cumplir nuestros compromisos.

Además, como miembro principal de nuestro equipo de Consultoría, usted ayudará a Teradata a establecer un liderazgo innovador en el espacio de Big Data al contribuir a los informes técnicos, comentarios técnicos y representar a nuestra compañía en las conferencias de la industria.


Esta posición ofrece la oportunidad de estar a la vanguardia del creciente mercado de Big Data and Analytics. El individuo exitoso posee conocimiento de patrones de arquitectura de datos pasados ​​y modernos, un fuerte sentido del arte de lo posible y, al mismo tiempo, puede equilibrarlo con los requisitos de las grandes organizaciones para crear entornos de datos confiables. El candidato adecuado está entusiasmado por trabajar en forma práctica y por brindar orientación estratégica a algunas de las organizaciones más grandes y conocidas.




Principales Responsabilidades:


Sus principales responsabilidades son cumplir con nuestros compromisos y asesorar a las organizaciones sobre cómo hacer que las tecnologías de Big Data y Analytic funcionen para ellas. Serás un miembro invaluable de nuestros equipos de entrega que trabajarán con los clientes más ambiciosos. Tendrá la oportunidad de aprender y trabajar con múltiples tecnologías y líderes de pensamiento en el espacio de Big Data.



  • Actividades de ventas de soporte: se le puede solicitar que apoye al equipo de ventas para demostrar a nuestros clientes los beneficios de las arquitecturas de datos modernas, y para posicionar a Teradata como el asesor confiable de su elección.
  • Desarrollar relaciones con los clientes: como embajador de Teradata en nuestros clientes, desarrollará relaciones profundas con las partes interesadas de su nivel en sus organizaciones. Usted asesora de forma proactiva sobre necesidades y problemas, y deriva soluciones procesables. Proporcionar patrones y estrategias para tareas comunes.


Conocimientos, Habilidades y Habilidades


  • Excelentes habilidades interpersonales. Comunicación verbal y escrita sólida, con buena exposición al trabajo en un entorno intercultural. Se le puede pedir que se comunique y presente algunos temas a audiencias pequeñas. Experimentado en la redacción de documentos que comunican temas técnicos complejos de manera accesible.
  • Experiencia con arquitecturas de datos. Conocimiento y experiencia en tecnologías y herramientas de Big Data y / o Análisis, como el ecosistema de Hadoop, Apache Hive y Spark, entre otros. Conocimiento sólido de la gobernanza y seguridad de los datos, y metodologías relacionadas con los datos.
  • También se solicita al menos algo de experiencia en otras plataformas de datos, como sistemas de bases de datos relacionales, almacenes de datos u otros sistemas OLAP, y en la entrega de tuberías ETL de nivel empresarial, flujos de trabajo de datos, migraciones y ciclos de vida.
  • Se necesita una sólida formación en desarrollo de software, integración continua, herramientas y arquitecturas de software, ya sea en entornos empresariales, integración de sistemas o relacionados con la ciencia. Puede dominar Java, Scala, C, Python, SQL, Ruby, Clojure, etc. También puede tener alguna experiencia con Tableau, Shiny, R, Javascript, ELK Stack, Solr, etc.


Cualificaciones laborales:




  • Sólida experiencia con Spark y Scala.
  • Experiencia práctica con la pila Hadoop y las tecnologías de Big Data relacionadas: Hive, Spark, Yarn, Kafka, Flume, HBase, Sqoop. Conocimiento y experiencia en datos estructurados, semiestructurados y no estructurados.
  • Se necesita una sólida formación en desarrollo de software, integración continua, herramientas y arquitecturas de software y patrones de desarrollo de software, ya sea en entornos empresariales, integración de sistemas o relacionados con la ciencia. Experiencia en programación en Java, Scala, Python y / o SQL.
  • Experiencia con Unix / Linux (Bash scripting, ssh tunneling, networking (netstat, lsof, ifconfig) y canalización Unix.
  • Experiencia en metodologías ágiles (por ejemplo, Scrum, Kanban)
  • Formación profesional o académica que incluye matemáticas y estadística.
  • Experiencia con SQL y diseño de bases de datos relacionales y métodos para recuperar datos de manera eficiente.
  • Experiencia con bases de datos NoSQL (HBase, Cassandra, MongoDB).
  • Experiencia con tecnologías de búsqueda (Solr, ELK Stack).
  • Fuertes habilidades analíticas y solucionador de problemas creativos.
  • Excelentes habilidades de comunicación verbal y escrita.
  • Fuerte jugador de equipo capaz de trabajar en un entorno exigente.




  • Experiencia con herramientas Git o CI (por ejemplo, Jenkins, Gitlab, etc.)
  • Experiencia con contenedores Docker y plataformas de orquestación como ECS, Kubernetes, Mesos y / o Docker Swarm.
  • Experiencia con servicios en la nube de AWS, GCP y / o Azure (por ejemplo, EMR, S3, AWS Lambda, Google Cloud DataProc, HDInsight, ...).
  • Buena comprensión de los fundamentos de la ciencia de datos.

Educación y experiencia

  • 5 años o más de experiencia en roles relevantes.
  • Informática, Matemáticas, Física, Ingeniería u otro grado relevante.
  • Experiencia en consultoría previa.

Información complementaria

Le ofrecemos un lugar no medio para trabajar: somos personas inspiradoras y apasionadas. Podemos trabajar duro a veces, pero siempre en una cultura dinámica, relajada y colaborativa. Le ofrecemos la oportunidad de unirse a una organización en rápida expansión con objetivos de crecimiento ambiciosos, donde realmente puede marcar la diferencia y dar forma al futuro.

La posición se basa en España. Sin embargo, a menudo estamos obligados a pasar tiempo en el sitio con nuestros clientes, principalmente locales, pero también internacionales. Se le pedirá que participe en un trabajo basado en viajes como miembro del equipo de Teradata Think Big Analytics. El nivel de negocios en español e inglés es obligatorio.


City: Madrid

State: Madrid

Community / Marketing Title: Senior Software Engineer

Job Category: Consulting

Company Profile:

Considering COVID-19, we are still hiring but conducting virtual interviews to keep our candidates and employees safe. Many roles will be temporarily remote or work from home to comply with current safety regulations. These roles will be required to be in the office once it is safe or restrictions are lifted. Read more on our response here: Teradata Response to COVID-19 

With all the investments made in analytics, it’s time to stop buying into partial solutions that overpromise and underdeliver. It’s time to invest in answers. Only Teradata leverages all of the data, all of the time, so that customers can analyze anything, deploy anywhere, and deliver analytics that matter most to them. And we do it at scale, on-premises, in the Cloud, or anywhere in between.

We call this Pervasive Data Intelligence. It’s the answer to the complexity, cost, and inadequacy of today’s analytics. And it's the way Teradata transforms how businesses work and people live through the power of data throughout the world. Join us and help create the era of Pervasive Data Intelligence.

Location_formattedLocationLong: Madrid, Madrid ES


© 2020, Teradata. All rights reserved. | Privacy | Terms of Use | Fraud Alert | Tracking Consent | Teradata is an Equal Opportunity Employer |