Software Engineer

Location: Madrid, Madrid ES

Notice

This position is no longer open.

Requisition Number: 204076

Position Title: Analytics Consulting II

External Description:

Position Overview

As a Software Engineer you will provide technical skills in a team that designs and develops path-breaking large-scale Big Data and Analytics solutions. You will help our client on the state-of-the-art technologies and tools, covering the whole ecosystem from infrastructure and foundation ones (as Hadoop, HDFS, Hive, Yarn, Kafka, Flume, Spark, Sqoop and No-SQL databases), to the ones related to Data Governance, Data Pipelines, and Analytics tools.

You would also be requested to design and develop code, scripts, and data pipelines that leverage structured and unstructured data integration from multiple sources, using Shell scripts, Java, C, Scala, Python and related languages.

Additionally, as a member of our Consulting team, you will help Teradata establish thought leadership in the Big Data space by contributing to white papers, technical commentary.


This position offers the opportunity to be at the forefront of the growing Big Data and Analytics market. The successful individual possesses knowledge of past and modern data architecture patterns, a strong sense of the art of the possible and, at the same time, can balance it with the requirements of large organizations to build reliable data environments. The right candidate is excited about working hands-on as well as providing strategic guidance to some of the biggest and most well-known organizations.

Responsibilities

Main Responsibilities:

Your main responsibilities are to deliver on our commitments and to help organizations on how to make Big Data and Analytic technologies work for them. You will be invaluable member of our delivery teams working with the most ambitious customers. You will have a chance to learn and work with multiple technologies and Thought Leaders in the Big Data space.

Knowledge, Skills and Abilities

  • Excellent interpersonal skills. Verbal and written communication, with good exposure to working in a cross-cultural environment. You may be requested to communicate and present some topics to small audiences.
  • At least some experience in other data platforms, such as relational database systems, data warehouses or other OLAP systems, and in delivering enterprise-level ETL pipelines, data workflows, migrations and lifecycles, is also requested.
  • A background on software development, continuous integration, tooling and software architectures is needed, either in in enterprise environments, system integration, or science-related ones. You are proficient in either Java, Scala, C, Python, SQL, Ruby, Clojure, etc. You may also have some experience with Tableau, Shiny, R, Javascript, ELK Stack, Solr, and so forth.

Job Qualifications: 

Required

  • Hand-on experience with the Hadoop stack and related Big Data technologies: Hive, Spark, Yarn, Kafka, Flume, HBase, Sqoop. Knowledge and experience of structured, semi-structured and unstructured data.
  • A background on software development, continuous integration, tooling and software architectures and software development patterns is needed, either in in enterprise environments, system integration, or science-related ones. Experience programming in Java, Scala, Python and/or SQL.
  • Experience with Unix/Linux (Bash scripting, ssh tunneling, networking (netstat, lsof, ifconfig) and Unix piping.
  • Experience in Agile Methodologies (e.g Scrum, Kanban)
  • Knowledge with SQL and relational database design and methods for efficiently retrieving data.
  • Knowledge of NoSQL databases (HBase, Cassandra, MongoDB). 
  • Knowledge of Search technologies (Solr, ELK Stack).
  • Analytical skills and creative problem solver.
  • Verbal and written communications skills.
  • Strong team player capable of working in a demanding environment.

Desired

  • Experience with Git or other CI tools (e.g. Jenkins, Gitlab, etc)
  • Knowledge of cloud services from AWS, GCP and/or Azure (e.g. EMR, S3, AWS Lambda, Google Cloud DataProc, HDInsight,…).
  • Good understanding of Data Science fundamentals.

Education And Experience

  • 1 year or more experience in relevant roles.
  • Computer Science, Mathematics, Physics, Engineering, or other relevant degree.

Complementary Information

We offer you a not average place to work: we are inspiring and passionate people. We may work hard at times, but always in a dynamic, relaxed and collaborative culture. We offer you the chance of joining a rapidly expanding organization with ambitious growth targets, where you can really make the difference and shape the future.

Position is based in Spain. However, we are often required to spend time on-site with our customers, mainly local but also international ones. You will be required to participate in travel-based work as a Teradata Think Big Analytics team member. Spanish and English business-level is mandatory.



Posición

Esta posición ofrece la oportunidad de estar a la vanguardia del creciente mercado de Big Data and Analytics. El individuo exitoso posee conocimiento de patrones de arquitectura de datos pasados y modernos, un fuerte sentido del arte de lo posible y, al mismo tiempo, puede equilibrarlo con los requisitos de las grandes organizaciones para crear entornos de datos confiables. El candidato adecuado está entusiasmado por trabajar en forma práctica y por brindar orientación estratégica a algunas de las organizaciones más grandes y conocidas.

Como ingeniero de software, proporcionará habilidades técnicas en un equipo que diseña y desarrolla soluciones de Big Data y análisis a gran escala. Ayudará a nuestro cliente con las tecnologías y herramientas más avanzadas, cubriendo todo el ecosistema desde infraestructura y bases (como las bases de datos Hadoop, HDFS, Hive, Yarn, Kafka, Flume, Spark, Sqoop y No-SQL). , a las relacionadas con herramientas de Data Governance, Data Pipelines y Analytics.

También se le solicitará que diseñe y desarrolle código, scripts y tuberías de datos que aprovechen la integración de datos estructurados y no estructurados de múltiples fuentes, utilizando scripts de Shell, Java, C, Scala, Python y lenguajes relacionados.

Además, como miembro de nuestro equipo de Consultoría, usted ayudará a Teradata a establecer un liderazgo innovador en el espacio de Big Data al contribuir a los documentos técnicos, comentarios técnicos.

Esta posición ofrece la oportunidad de estar a la vanguardia del creciente mercado de Big Data and Analytics. El individuo exitoso posee conocimiento de patrones de arquitectura de datos pasados y modernos, un fuerte sentido del arte de lo posible y, al mismo tiempo, puede equilibrarlo con los requisitos de las grandes organizaciones para crear entornos de datos confiables. El candidato adecuado está entusiasmado por trabajar en forma práctica y por brindar orientación estratégica a algunas de las organizaciones más grandes y conocidas.

Responsabilidades

Principales Responsabilidades:

Sus principales responsabilidades son cumplir con nuestros compromisos y ayudar a las organizaciones a hacer que las tecnologías de Big Data y Analytic funcionen para ellas. Serás un miembro invaluable de nuestros equipos de entrega que trabajarán con los clientes más ambiciosos. Tendrá la oportunidad de aprender y trabajar con múltiples tecnologías y líderes de pensamiento en el espacio de Big Data.

Conocimientos, Habilidades y Habilidades

  • Excelentes habilidades interpersonales. Comunicación verbal y escrita, con buena exposición al trabajo en un entorno intercultural. Se le puede pedir que se comunique y presente algunos temas a audiencias pequeñas.
  • También se solicita al menos algo de experiencia en otras plataformas de datos, como sistemas de bases de datos relacionales, almacenes de datos u otros sistemas OLAP, y en la entrega de tuberías ETL de nivel empresarial, flujos de trabajo de datos, migraciones y ciclos de vida.
  • Se necesita experiencia en desarrollo de software, integración continua, herramientas y arquitecturas de software, ya sea en entornos empresariales, integración de sistemas o relacionados con la ciencia. Puede dominar Java, Scala, C, Python, SQL, Ruby, Clojure, etc. También puede tener alguna experiencia con Tableau, Shiny, R, Javascript, ELK Stack, Solr, etc.

Cualificaciones laborales:

Necesario

  • Experiencia práctica con la pila Hadoop y las tecnologías de Big Data relacionadas: Hive, Spark, Yarn, Kafka, Flume, HBase, Sqoop. Conocimiento y experiencia en datos estructurados, semiestructurados y no estructurados.
  • Se necesitan antecedentes sobre desarrollo de software, integración continua, herramientas y arquitecturas de software y patrones de desarrollo de software, ya sea en entornos empresariales, integración de sistemas o relacionados con la ciencia. Experiencia en programación en Java, Scala, Python y / o SQL.
  • Experiencia con Unix / Linux (Bash scripting, ssh tunneling, networking (netstat, lsof, ifconfig) y canalización Unix.
  • Experiencia en metodologías ágiles (por ejemplo, Scrum, Kanban)
  • Conocimiento con SQL y diseño de bases de datos relacionales y métodos para recuperar datos de manera eficiente.
  • Conocimiento de las bases de datos NoSQL (HBase, Cassandra, MongoDB).
  • Conocimiento de las tecnologías de búsqueda (Solr, ELK Stack).
  • Capacidad de análisis y resolución de problemas creativos.
  • Habilidades de comunicación verbal y escrita.
  • Fuerte jugador de equipo capaz de trabajar en un entorno exigente.

Deseado

  • Experiencia con Git u otras herramientas de CI (por ejemplo, Jenkins, Gitlab, etc.)
  • Conocimiento de los servicios en la nube de AWS, GCP y / o Azure (por ejemplo, EMR, S3, AWS Lambda, Google Cloud DataProc, HDInsight, ...).
  • Buena comprensión de los fundamentos de la ciencia de datos.

Educación y experiencia

  • 1 año o más de experiencia en roles relevantes.
  • Informática, Matemáticas, Física, Ingeniería u otro grado relevante.

Información complementaria

Le ofrecemos un lugar no medio para trabajar: somos personas inspiradoras y apasionadas. Podemos trabajar duro a veces, pero siempre en una cultura dinámica, relajada y colaborativa. Le ofrecemos la oportunidad de unirse a una organización en rápida expansión con objetivos de crecimiento ambiciosos, donde realmente puede marcar la diferencia y dar forma al futuro.

La posición se basa en España. Sin embargo, a menudo estamos obligados a pasar tiempo en el sitio con nuestros clientes, principalmente locales, pero también internacionales. Se le pedirá que participe en un trabajo basado en viajes como miembro del equipo de Teradata Think Big Analytics. El nivel de negocios en español e inglés es obligatorio.

CountryEEOText_Description:

City: Madrid

State: Madrid

Community / Marketing Title: Software Engineer

Job Category: Consulting

Company Profile:

With all the investments made in analytics, it’s time to stop buying into partial solutions that overpromise and underdeliver. It’s time to invest in answers. Only Teradata leverages all of the data, all of the time, so that customers can analyze anything, deploy anywhere, and deliver analytics that matter most to them. And we do it at scale, on-premises, in the Cloud, or anywhere in between.

We call this Pervasive Data Intelligence. It’s the answer to the complexity, cost, and inadequacy of today’s analytics. And it's the way Teradata transforms how businesses work and people live through the power of data throughout the world. Join us and help create the era of Pervasive Data Intelligence.

Location_formattedLocationLong: Madrid, Madrid ES

.

© 2018, Teradata. All rights reserved. | Privacy | Terms of Use | Fraud Alert | Tracking Consent | Teradata is an Equal Opportunity Employer | www.teradata.com