-
loading
Solo con imagen

Data engineer


Listado top ventas data engineer

Nueve de Julio-Buenos Aires (Buenos Aires)
Welcome to Devlane! b'/xe2/x80/x8d' We are a dynamic software development company with a strong presence across Latin America. Currently, we specialize in offering staff augmentation services to clients worldwide, with a particular focus on North America. Joining our team offers you the opportunity to shine and make a significant impact on the projects you work on. Many of our clients are modern small to medium-sized businesses experiencing rapid growth, and they're eager to add core members like you to their teams. This environment ensures you'll stay up-to-date with the latest technology trends. At Devlane, our values are straightforward: we foster a collaborative environment and prioritize building long-lasting relationships where you can develop your skills as a software engineer and learn from your peers.b'/xc2/xa0' b'/xe2/x80/x8d' Here, you will be able to: ✔b'/xc2/xa0'Be part of a company that is in constant growth. ✔b'/xc2/xa0'Reinforce your skills inb'/xc2/xa0'Data Engineeringb'/xc2/xa0' ✔b'/xc2/xa0'Propose ideas to improve the process. b'/xe2/x80/x8d' What do we require from you? ✔b'/xc2/xa0'Minimum ofb'/xc2/xa0'5b'/xc2/xa0'years of experience working as ab'/xc2/xa0'Data Engineer. ✔b'/xc2/xa0'At leastb'/xc2/xa0'5b'/xc2/xa0'years of experience with SQL. ✔b'/xc2/xa0'Experience working with Python. ✔b'/xc2/xa0'Experience working withb'/xc2/xa0'Airflow and Snowflake. b'/xe2/x80/x8d' Some of our Perks: ✔b'/xc2/xa0'Salary in USD. ✔b'/xc2/xa0'100% Remote ✔b'/xc2/xa0'25 days of Paid Time Off per year. ✔b'/xc2/xa0'8-hour workday, with flexible hours. ✔b'/xc2/xa0'Welcome kit from the brand. ✔b'/xc2/xa0'High-end hardware provided: laptop, mouse, b'&' headphones. ✔b'/xc2/xa0'English classes, virtual library and online courses. ✔b'/xc2/xa0'Contribution bonuses b'/xe2/x80/x8d' Ready to take the next step in your career?b'/xc2/xa0' Apply now!
Ver aviso
Nueve de Julio-Buenos Aires (Buenos Aires)
Data Engineer Ssr / Sr (full time, remoto) - Freelance a largo plazob'/xc2/xa0'Nos encontramos en la bb'/xc3/xba'squeda de un Data Engineer con +2 ab'/xc3/xb1'os de experiencia en el b'/xc3/xa1'rea.Requisitos excluyentes:Experiencia trabajando con AWS como plataforma Cloud (deseable:b'/xc2/xa0'Redshift,b'/xc2/xa0'Glue,b'/xc2/xa0'Lambda).b'/xc2/xa0'Lenguaje requerido: Python.b'/xc2/xa0'Inglb'/xc3/xa9's deseable.b'/xc2/xa0'Condiciones Contratacib'/xc3/xb3'n:b'/xc2/xa0' Fecha de inicio: inmediata.Duracib'/xc3/xb3'n: posicib'/xc3/xb3'n permanente.Modalidad: full time y 100% remoto (si sos de Buenos Aires, con posibilidad de asistir alguna vez a las oficinas de CABA).b'/xc2/xa0'Freelance a travb'/xc3/xa9's nuestro (de la consultora).b'/xc2/xa0'Es exclusivo para residentes en Argentina.Si te interesa esta bb'/xc3/xba'squeda, por favor segub'/xc3/xad' el enlace para postularte.b'/xc2/xa0'Muchas gracias!
Ver aviso
Nueve de Julio-Buenos Aires (Buenos Aires)
b'/xc2/xbf'Qub'/xc3/xa9' hace la compab'/xc3/xb1'b'/xc3/xad'a? Empresa de valores de la bolsa IT y de negociacib'/xc3/xb3'n de moneda extranjera mb'/xc3/xa1's importante de la Argentina con mb'/xc3/xa1's de 250 clientes. Brinda una plataforma para la concertacib'/xc3/xb3'n y registracib'/xc3/xb3'n de todas las operaciones, ofreciendo informacib'/xc3/xb3'n precisa sobre los precios y volb'/xc3/xba'menes de mercado en tiempo y forma. b'/xc2/xbf'Qub'/xc3/xa9' necesitb'/xc3/xa1's para ser parte del equipo? A nivel personal: Enfoque proactivo y capacidad de autogestib'/xc3/xb3'n en proyectos.Fuerte orientacib'/xc3/xb3'n a la solucib'/xc3/xb3'n de problemas y atencib'/xc3/xb3'n al detalle.Habilidades de comunicacib'/xc3/xb3'n para colaborar con equipos multifuncionales.Capacidad de trabajo autb'/xc3/xb3'nomo y mente analb'/xc3/xad'tica orientada a la resolucib'/xc3/xb3'n de problemas.Alta motivacib'/xc3/xb3'n y compromiso con la calidad en la entrega de proyectos. A nivel tb'/xc3/xa9'cnico: +2 ab'/xc3/xb1'os de experiencia en roles de data engineer e infraestructura de datos.Experiencia en ensamblaje y manipulacib'/xc3/xb3'n de grandes volb'/xc3/xba'menes de datos para soluciones complejas.Conocimientos avanzados en diseb'/xc3/xb1'o y administracib'/xc3/xb3'n de data warehouses y data lakes.Dominio en el desarrollo de ETLs.Conocimientos de soluciones en la nube (Azure preferentemente).Conocimientos en Microsoft Power BI.Conocimientos en Microsoft Fabric para explotacib'/xc3/xb3'n de datos (deseable).Si contb'/xc3/xa1's con experiencia en proyectos de IA para anb'/xc3/xa1'lisis avanzado o implementacib'/xc3/xb3'n de IA generativa, es un plus! b'/xc2/xbf'Qub'/xc3/xa9' vas a hacer? Diseb'/xc3/xb1'ar, ensamblar y optimizar conjuntos de datos grandes y complejos para cumplir con los requisitos de negocio y asegurar la calidad y seguridad de los datos.Crear soluciones avanzadas de explotacib'/xc3/xb3'n de datos, como data warehouses y data lakes, para soportar anb'/xc3/xa1'lisis de alto rendimiento y reportes de negocio.Definir modelos de datos adecuados para cada solucib'/xc3/xb3'n, asegurando su alineacib'/xc3/xb3'n con los objetivos empresariales.Desarrollar y gestionar ETLs.Colaborar en implementaciones y anb'/xc3/xa1'lisis de datos con Microsoft Power BI o Microsoft Fabric para optimizar la visualizacib'/xc3/xb3'n de datos y la toma de decisiones. b'/xc2/xbf'Cub'/xc3/xa1'l es el desafb'/xc3/xad'o de la posicib'/xc3/xb3'n?b'/xc2/xa0' La persona seleccionada serb'/xc3/xa1' responsable de diseb'/xc3/xb1'ar y crear el Gobierno de Datos de la empresa, ademb'/xc3/xa1's de ensamblar soluciones de datos robustas y escalables que cumplan con los requisitos empresariales tanto funcionales como no funcionales. Tambib'/xc3/xa9'n tendrb'/xc3/xa1's la oportunidad de implementar soluciones en la nube y herramientas de gestib'/xc3/xb3'n de Big Data para acompab'/xc3/xb1'ar a la empresa en su transformacib'/xc3/xb3'n digital. b'/xc2/xbf'Con quib'/xc3/xa9'n trabajarb'/xc3/xa1's?b'/xc2/xa0' La empresa estb'/xc3/xa1' participando de una fusib'/xc3/xb3'n con otros mercados, por lo que el equipo de Data se encuentra en formacib'/xc3/xb3'n y expansib'/xc3/xb3'n. Tendrb'/xc3/xa1's la oportunidad de ser el referente central del sector y contarb'/xc3/xa1's con apoyo de consultoras. b'/xc2/xbf'Con qub'/xc3/xa9' herramientas trabajarb'/xc3/xa1's? Las herramientas con las que se trabajarb'/xc3/xa1' serb'/xc3/xa1'n: Microsoft Power BI o Microsoft Fabric, entre otros. b'/xc2/xbf'Cub'/xc3/xa1'ndo y db'/xc3/xb3'nde trabajarb'/xc3/xa1's? Trabajarb'/xc3/xa1's en una modalidad hb'/xc3/xad'brida, asistiendo 2 o 3 veces por semana a las oficinas y el resto de los db'/xc3/xad'as en esquema HO. El horario es de lunes a viernes de 10:00 a 18:00 hs. b'/xc2/xbf'Qub'/xc3/xa9' ofrecen? Relacib'/xc3/xb3'n de dependencia directa.14 db'/xc3/xad'as hb'/xc3/xa1'biles de vacaciones.Prepaga para empleado/a y grupo familiar.Clases de inglb'/xc3/xa9's.Reintegro celular e internet.5 db'/xc3/xad'as anuales de licencia extendida.Home Office.Db'/xc3/xad'a de cumpleab'/xc3/xb1'os.Capacitaciones.Gympass.Almuerzo cubierto en las oficinas. b'/xc2/xbf'De qub'/xc3/xa9' fases consta el proceso de seleccib'/xc3/xb3'n?b'/xc2/xa0' Tendrb'/xc3/xa1's una primera entrevista con nuestra Recruiter, Carla Carrizo, para conocer tus experiencias laborales e intereses. Luego, con la empresa empleadora tendrb'/xc3/xa1's dos instancias.
Ver aviso
Córdoba (Córdoba)
Buscamos un Data Engineer con experiencia con GCP con muchas ganas de continuar creciendo y aportando todo su potencial en un equipo de trabajo excepcional.b'/xc2/xa0'Funciones principales:- Desarrollo y mantenimiento de pipelines de datos- Modelado de datos en Data Warehouse- Orquestacion de procesos- Consumo de APIs- Optimizacion de consultas SQL- Monitoreo de procesosHerramientas/Tecnologb'/xc3/xad'as:- Google Cloud Platform- BigQuery- Cloud Functions- Cloud Storage- Data Fusion- Composer/Airflow- PubSub- Cloud Monitoring- Python- SQLCondiciones de la vacante:- 100% remoto (podb'/xc3/xa9's residir en cualquier parte de Argentina)- Obra social prepaga- Excelente clima y oportunidades de crecimiento profesional-b'/xc2/xa0' y mb'/xc3/xa1's!
Ver aviso
Nueve de Julio-Buenos Aires (Buenos Aires)
En Ecosistemas nos encontramos en la bb'/xc3/xba'squeda de un Data Engineer para sumar al equipo de uno de nuestros clientes del sector financiero.b'/xc2/xa0'Proyecto: cubrir la necesidad de desarrollos de procesos de ingestas de datos desde entorno on-prem hacia entorno cloud.b'/xc2/xbf'Qub'/xc3/xa9' buscamos?Estudiantes universitarios o graduados en Ing. Sistemas/Informb'/xc3/xa1'tica, Lic. Ciencias de la Computacib'/xc3/xb3'n/Ciencia de Datos o afines.Experiencia desarrollando data pipelines con Python.Experiencia en AWS (S3, Datasync, Step Functions, EMR, Glue, Athena).Experiencia trabajando con GitConocimientos de bases NoSQL (MongoDB/DocumentDB, DynamoDB)Conocimientos en Control-Mb'/xc2/xa0'Se valorarb'/xc3/xa1':Conocimientos de GitlabConocimientos de TerraformConocimientos de metodologb'/xc3/xad'as b'/xc3/xa1'giles.Conocimientos de la industria financiera.Dominio de inglb'/xc3/xa9's tb'/xc3/xa9'cnico.Modalidad: Hibrido (1 o 2 veces por semana)Lunes a viernes de 9 a 18hsb'/xc2/xa0'Beneficios:Prepaga de primer nivel, plataforma de capacitaciones interna, descuentos en distintas marcas, vacaciones flexibles, regalos en fechas especiales, entre otros.
Ver aviso
Nueve de Julio-Buenos Aires (Buenos Aires)
Descripcib'/xc3/xb3'n del Puesto:Desde Cb'&'S, buscamos un b'/xe2/x80/x9c'DATA ENGINEER b'/xe2/x80/x93' SENIOR/ESPECIALISTAb'/xe2/x80/x9d' con amplia experiencia comprobable en el desarrollo de jobs ETL y ELT en entornos on-premise y en la nube, preferentemente en cloud.El candidato ideal tendrb'/xc3/xa1' habilidades avanzadas en Python, experiencia en la migracib'/xc3/xb3'n de procesos de datos y un sb'/xc3/xb3'lido dominio de herramientas de ETL/ELT como NiFi, Glue, EMR o Informatica Cloud.b'/xc2/xa0'Responsabilidades:Desarrollar y optimizar procesos de ETL/ELT en diversos entornos.Migrar procesos de datos desde entornos on-premise a la nube.Ingesta y procesamiento de datos no estructurados en Data Lakes.Utilizar Apache Spark o PySpark para el procesamiento distribuido de datos.Automatizar procesos de datos mediante scripts en Python.b'/xc2/xa0'Requisitos Mandatorios: Experiencia en herramientas de ETL/ELT: NiFi, Glue, EMR o Informatica Cloud.Conocimientos en el uso de Apache Spark o PySpark.Habilidades avanzadas en Python.Preferiblemente experiencia en AWS; se valorarb'/xc3/xa1' conocimiento en otras plataformas cloud.Capacidad para resolver problemas y optimizar procesos de datos complejos.b'/xc2/xa0'Skills b'/xc2/xa0'Deseables/Valoradas: Certificaciones en AWS u otras plataformas de nube.Experiencia en proyectos de migracib'/xc3/xb3'n a gran escala y optimizacib'/xc3/xb3'n de cargas de trabajo en la nube.Familiaridad con estrategias de gobernanza y seguridad de datos en entornos cloud.b'/xc2/xa0'Modalidad de trabajo: 100% Remoto (a excepcib'/xc3/xb3'n de algunas ceremonias presenciales ocasionales - CABA)9 a 18 hs.En relacib'/xc3/xb3'n de dependencia con Cb'&'S.b'/xc2/xa0'Beneficios: Revisiones salariales mb'/xc3/xad'nimas 4 veces al ab'/xc3/xb1'o.Licencia por paternidad extendida.Reintegro por gastos en guarderb'/xc3/xad'a.Descuentos en universidades y cursos de idiomas.Plataforma de capacitacib'/xc3/xb3'n online totalmente gratuita con certificacib'/xc3/xb3'n internacional.Reintegro por gastos (luz e internet) en compensacib'/xc3/xb3'n en el recibo de sueldo.Regalo y db'/xc3/xad'a de cumpleab'/xc3/xb1'os libre.Entrega de equipo de trabajo.Cuponera de Cb'&'S con descuentos en gastronomb'/xc3/xad'a, indumentaria y cursos acadb'/xc3/xa9'micos con certificacib'/xc3/xb3'n internacional.Plan de obra social individual a travb'/xc3/xa9's del redireccionamiento de aportes estipulado por ley, ya sea una obra social que vos tengas y quieras mantener, o una que te podamos brindar nosotros
Ver aviso
Nueve de Julio-Buenos Aires (Buenos Aires)
b'/xc2/xa0'Acerca de Cb'&'S Somos una empresa de mb'/xc3/xa1's de 160 profesionales, consolidada hace 38 ab'/xc3/xb1'os en el mercado. Nuestro propb'/xc3/xb3'sito es garantizar la satisfaccib'/xc3/xb3'n de nuestros clientes; para ello, ofrecemos servicios de Desarrollo de Software, Talent Outsourcing y Consultorb'/xc3/xad'a IT. Contamos con certificacib'/xc3/xb3'n ISO 9001 y sedes en Buenos Aires, Argentina y Santiago de Chile. b'/xc2/xa0' Desde Cb'&'S estamos buscando candidatos/as para llenar la posicib'/xc3/xb3'n de Data Engineer b'/xe2/x80/x93' Senior, para proyecto de importante banco privado. b'/xc2/xa0' Modalidad de trabajo Esquema remoto. (Si el candidato es de CABA/AMBA, tendrb'/xc3/xa1'n que asistir alguna vez a oficinas en Chacarita a participar de ceremonias presenciales)Horario full time Skills mandatorios Experiencia comprobable en el desarrollo de jobs ETL y ELT, tanto en entornos on-premise como en la nube, preferentemente en cloud. Dominio de herramientas de ETL/ELT como NiFi, Glue, EMR o Informatica Cloud. Experiencia en la migracib'/xc3/xb3'n de procesos de datos desde entornos on-premise a la nube. Conocimientos en la ingesta y procesamiento de datos no estructurados en Data Lakes. Experiencia en el uso de Apache Spark o PySpark para el procesamiento distribuido de datos. Habilidades avanzadas en Python para el desarrollo de scripts y automatizaciones en el procesamiento de datos. b'/xc2/xa0' Skills valorados (deseables) Certificaciones en AWS u otras plataformas de nube. Preferentemente con experiencia en AWS, aunque se valorarb'/xc3/xa1' conocimiento en otras plataformas cloud.Conocimientos en otras herramientas de integracib'/xc3/xb3'n y orquestacib'/xc3/xb3'n de datos. Experiencia en proyectos de migracib'/xc3/xb3'n a gran escala y optimizacib'/xc3/xb3'n de cargas de trabajo en la nube. Familiaridad con estrategias de gobernanza y seguridad de datos en entornos cloud. b'/xc2/xbf'Qub'/xc3/xa9' ofrecemos? Cobertura mb'/xc3/xa9'dica (Redireccib'/xc3/xb3'n de aporte)Cuatro revisiones anuales de sueldo.Descuentos en universidades, centros educativos, y mb'/xc3/xa1's.Bono de cumpleab'/xc3/xb1'os.Bono para internet y gastos del hogar.Equipo para que puedas trabajar desde tu casa.Kit de bienvenida al ingresar.
Ver aviso
Nueve de Julio-Buenos Aires (Buenos Aires)
Somosb'/xc2/xa0'IT Patagonia, una empresa de servicios de tecnologb'/xc3/xad'a con mb'/xc3/xa1's de 35 ab'/xc3/xb1'os de experiencia en lab'/xc2/xa0'industria del conocimiento.Ofrecemos servicios integrales y el desarrollo de soluciones tecnolb'/xc3/xb3'gicasb'/xc2/xa0'innovadoras en la Argentina y la regib'/xc3/xb3'n. Impulsamos el desarrollo de nuestros clientes a travb'/xc3/xa9's delb'/xc2/xa0'desarrollo de software a medida, productos digitales y servicios de consultorb'/xc3/xad'a.Somos parte de una nueva forma de hacer negocios, comprometida con un sistema econb'/xc3/xb3'mico queb'/xc2/xa0'beneficia al planeta y a todas las personas.b'/xc2/xa0'Nos certificamos como una de las Empresas B, pioneras enb'/xc2/xa0'Argentina y el mundo, yb'/xc2/xa0'somos la 4ta mejor empresa para trabajar en el rubro Tecnologb'/xc3/xad'a, segb'/xc3/xba'n elb'/xc2/xa0'ranking de Great Place To Workb'/xc2/xa0'en la categorb'/xc3/xad'a de empresas de entre 251 y 1000 colaboradores.Estamos reforzando el equipo y buscamos un Data Engineer SR, que se sumen a la comunidad de IT Patagonia.Principales desafb'/xc3/xad'os de la posicib'/xc3/xb3'n:* Analizar requerimientos e identificar en forma cierta el nivel de complejidad de los desarrollos a realizar, generando las estimaciones correspondientes.* Realizar anb'/xc3/xa1'lisis y diseb'/xc3/xb1'o de los requerimientos, asegurando consistencia con el requerimiento y siguiendo los estb'/xc3/xa1'ndares de documentacib'/xc3/xb3'n definidos.* Desarrollar y validar la consistencia de los modelos para la recopilacib'/xc3/xb3'n y el anb'/xc3/xa1'lisis de los datos.* Desarrollar funciones mediante el uso de herramientas de extraccib'/xc3/xb3'n, transformacib'/xc3/xb3'n y carga de datos.* Crear modelos y planes de prueba, permitiendo su re-utilizacib'/xc3/xb3'n en sus distintas fases, ademb'/xc3/xa1's de las pruebas tb'/xc3/xa9'cnicas, funcionales y de performance.* Identificar y documentar posibles mejoras a los diseb'/xc3/xb1'os y modelos desarrollados.* Identificar y resolver cuestiones que afectan a su trabajo y al avance de los proyectos* Colaborar en el desarrollo del enfoque y plan de pruebas de los modelos y funciones, mantenib'/xc3/xa9'ndolos actualizados.* Ayudar a identificar y documentar el impacto y esfuerzo asociado a los requerimientos que representen cambios en los desarrollos realizados.Conocimientos tb'/xc3/xa9'cnicos requeridos (excluyentes)* Informatica Powercenter programming for Data Warehouse.* Informatica PowerExchange* SQL* Shell b'&' PowerShell ScriptingSer Patagonian significa abrazar valores profundos, como la solidaridad, el trabajo en equipo, lab'/xc2/xa0'inclusib'/xc3/xb3'n, el compromiso y la innovacib'/xc3/xb3'n. Somos portadores de cb'/xc3/xb3'digos, no solo en nuestro software, sino en nuestro espb'/xc3/xad'ritu. Creamos tecnologb'/xc3/xad'a con valores arraigados a nuestra esencia.Somos mb'/xc3/xa1's que gente de tecnologb'/xc3/xad'a; somos arquitectos de un mundo mejor, guiados por nuestrob'/xc2/xa0'propio cb'/xc3/xb3'digo.b'/xc2/xa0'b'/xc2/xa1'Sumate a esta experiencia!
Ver aviso
Nueve de Julio-Buenos Aires (Buenos Aires)
b'/xc2/xbf'Qub'/xc3/xa9' hace la compab'/xc3/xb1'b'/xc3/xad'a? Compab'/xc3/xb1'b'/xc3/xad'a nativa digital con presencia global de gran escala de ingenierb'/xc3/xad'a, diseb'/xc3/xb1'o e innovacib'/xc3/xb3'n, con sedes ubicadas en 18 pab'/xc3/xad'ses entre Amb'/xc3/xa9'rica, Asia y Europa. Cuenta con un equipo de mb'/xc3/xa1's de 20 mil profesionales que forman parte de nuevos desafb'/xc3/xad'os y proyectos de vanguardia. b'/xc2/xbf'Qub'/xc3/xa9' necesitb'/xc3/xa1's para ser parte del equipo? A nivel personal: Ser flexible y estar orientado/a a objetivos.Tener imaginacib'/xc3/xb3'n y amar la innovacib'/xc3/xb3'n.Capacidad analb'/xc3/xad'tica de alto rendimiento.Disfrutar de la resolucib'/xc3/xb3'n de problemas.Habilidades de liderazgo. A nivel tb'/xc3/xa9'cnico: Experiencia de 5 ab'/xc3/xb1'os o mb'/xc3/xa1's trabajando como Data Engineer.Experiencia en Azure | AWS | GCP.Experiencia avanzada en Spark.Manejo de Databricks.Conocimientos y experiencias en Lenguajes de programacib'/xc3/xb3'n.Contar con un nivel avanzado de inglb'/xc3/xa9's | Excluyente.Experiencia con bases de datos SQL y NoSQL.Se valorarb'/xc3/xa1' experiencia en DataLakes.Conocimientos y/o experiencia en procesamiento de datos en tiempo real con tecnologb'/xc3/xad'a de Streaming (Kafka, Kinesis, Pubsub,) es un plus. b'/xc2/xa0' b'/xc2/xbf'Qub'/xc3/xa9' vas a hacer? Diseb'/xc3/xb1'ar, construir y gestionar las plataformas de datos y los conductos de datos necesarios para la extraccib'/xc3/xb3'n,transformacib'/xc3/xb3'n y carga b'/xc3/xb3'ptimas de datos de diversas fuentes.Trabajar con las partes interesadas para ayudar con las necesidades relacionadas con los datos.Crear productos de datos para satisfacer las necesidades de mb'/xc3/xba'ltiples consumidores.Realizar tareas complejas de anb'/xc3/xa1'lisis y modelado de datos.Desarrollar e implementar actividades de calidad, perfilado y limpieza de datos. b'/xc2/xbf'Cub'/xc3/xa1'ndo y db'/xc3/xb3'nde trabajarb'/xc3/xa1's? Trabajarb'/xc3/xa1's bajo un esquema 100% remoto desde cualquier parte del pab'/xc3/xad's. El horario es de lunes a viernes de 9 a 18 hs. b'/xc2/xbf'Con quib'/xc3/xa9'n trabajarb'/xc3/xa1's? Si te sumb'/xc3/xa1's a este desafb'/xc3/xad'o formarb'/xc3/xa1's parte de uno de los estudios mb'/xc3/xa1's grandes e importantes de la empresa: el b'
Ver aviso
Nueve de Julio-Buenos Aires (Buenos Aires)
b'/xc2/xbf'Qub'/xc3/xa9' hace la compab'/xc3/xb1'b'/xc3/xad'a? Compab'/xc3/xb1'b'/xc3/xad'a nativa digital con presencia global de gran escalab'/xc2/xa0'de ingenierb'/xc3/xad'a, diseb'/xc3/xb1'o e innovacib'/xc3/xb3'n, con sedes ubicadas en 18 pab'/xc3/xad'ses entre Amb'/xc3/xa9'rica, Asia y Europa. Cuenta con un equipo de mb'/xc3/xa1's de 20 mil profesionales que forman parte de nuevos desafb'/xc3/xad'os y proyectos de vanguardia. b'/xc2/xbf'Qub'/xc3/xa9' necesitb'/xc3/xa1's para ser parte del equipo? A nivel personal: Ser flexible y estar orientado/a a objetivos.Tener imaginacib'/xc3/xb3'n y amar la innovacib'/xc3/xb3'n.Capacidad analb'/xc3/xad'tica de alto rendimiento.Disfrutar de la resolucib'/xc3/xb3'n de problemas.Habilidades de liderazgo. A nivel tb'/xc3/xa9'cnico: Experiencia de 5 ab'/xc3/xb1'os o mb'/xc3/xa1's trabajando como Data Engineer.Experiencia en Azure | AWS | GCP.Experiencia avanzada en Spark.Manejo de Databricks.Conocimientos y experiencias en Lenguajes de programacib'/xc3/xb3'n.Contar con unb'/xc2/xa0'nivel avanzado de inglb'/xc3/xa9's | Excluyente.Experiencia conb'/xc2/xa0'bases de datos SQL y NoSQL.Se valorarb'/xc3/xa1' experiencia en DataLakes.Conocimientos y/o experiencia en procesamiento de datos en tiempo real con tecnologb'/xc3/xad'a de Streaming (Kafka, Kinesis, Pubsub,) es un plus.b'/xc2/xa0' b'/xc2/xbf'Qub'/xc3/xa9' vas a hacer? Diseb'/xc3/xb1'ar, construir y gestionar las plataformas de datos y los conductos de datos necesarios para la extraccib'/xc3/xb3'n,transformacib'/xc3/xb3'n y carga b'/xc3/xb3'ptimas de datos de diversas fuentes.Trabajar con las partes interesadas para ayudar con las necesidades relacionadas con los datos.Crear productos de datos para satisfacer las necesidades de mb'/xc3/xba'ltiples consumidores.Realizar tareas complejas de anb'/xc3/xa1'lisis y modelado de datos.Desarrollar e implementar actividades de calidad, perfilado y limpieza de datos. b'/xc2/xbf'Cub'/xc3/xa1'ndo y db'/xc3/xb3'nde trabajarb'/xc3/xa1's? Trabajarb'/xc3/xa1's bajo un esquemab'/xc2/xa0'100% remoto desde cualquier parte del pab'/xc3/xad's.b'/xc2/xa0'El horario es deb'/xc2/xa0'lunes a viernes de 9 a 18 hs. b'/xc2/xbf'Con quib'/xc3/xa9'n trabajarb'/xc3/xa1's? Si te sumb'/xc3/xa1's a este desafb'/xc3/xad'o formarb'/xc3/xa1's parte de uno de los estudios mb'/xc3/xa1's grandes e importantes de la empresa: elb'/xc2/xa0'b'/xc2/xab'Studio de Datab'/xc2/xbb', junto al equipo interno y externo. b'/xc2/xbf'Qub'/xc3/xa9' ofrecen? Sueldo Splitb'/xc2/xa0'(Argentina solamente)Contrato directo con la Empresa.100% remoto.Plataforma de cursos gratuitos.Licencia de paternidad/maternidad extendida.Descuentos en entidades educativas privadas.Tarjeta de descuentos: ropa, comida, viajes, etc.Inglb'/xc3/xa9's in Company.Plan de carrera internob'/xc2/xa0'en diferentes ramas IT.Proyectos multidisciplinarios. b'/xc2/xbf'De qub'/xc3/xa9' fases consta el proceso de seleccib'/xc3/xb3'n?b'/xc2/xa0' Tendrb'/xc3/xa1's una primera entrevista con alguna de nuestras Recruiters,b'/xc2/xa0'Aldana Alvarengab'/xc2/xa0'ob'/xc2/xa0'Carla Carrizo b'/xc3/x81'lvarez, para conocer tus experiencias laborales e intereses. Luego,b'/xc2/xa0'con la empresa empleadora tendrb'/xc3/xa1's 3 instancias. La primera una entrevista con el HR de la compab'/xc3/xb1'b'/xc3/xad'a para conocer mb'/xc3/xa1's sobre el desafb'/xc3/xad'o y screening en inglb'/xc3/xa9's, la segunda una evaluacib'/xc3/xb3'n tb'/xc3/xa9'cnica para conocer con profundidad tus conocimientos y por b'/xc3/xba'ltimo una instancia el cliente.
Ver aviso
Nueve de Julio-Buenos Aires (Buenos Aires)
b'/xc2/xbf'Qub'/xc3/xa9' hace la compab'/xc3/xb1'b'/xc3/xad'a? Compab'/xc3/xb1'b'/xc3/xad'a nativa digital con presencia global de gran escala de ingenierb'/xc3/xad'a, diseb'/xc3/xb1'o e innovacib'/xc3/xb3'n, con sedes ubicadas en 18 pab'/xc3/xad'ses entre Amb'/xc3/xa9'rica, Asia y Europa. Cuenta con un equipo de mb'/xc3/xa1's de 20 mil profesionales que forman parte de nuevos desafb'/xc3/xad'os y proyectos de vanguardia. b'/xc2/xbf'Qub'/xc3/xa9' necesitb'/xc3/xa1's para ser parte del equipo? A nivel personal: Ser flexible y estar orientado/a a objetivos.Tener imaginacib'/xc3/xb3'n y amar la innovacib'/xc3/xb3'n.Capacidad analb'/xc3/xad'tica de alto rendimiento.Disfrutar de la resolucib'/xc3/xb3'n de problemas.Habilidades de liderazgo. A nivel tb'/xc3/xa9'cnico: Experiencia de 5 ab'/xc3/xb1'os o mb'/xc3/xa1's trabajando como Data Engineer.Experiencia en Azure | AWS | GCP.Experiencia avanzada en Spark. Manejo de Databricks.Conocimientos y experiencias en Lenguajes de programacib'/xc3/xb3'n.Contar con un nivel avanzado de inglb'/xc3/xa9's | Excluyente.Experiencia con bases de datos SQL y NoSQL.Se valorarb'/xc3/xa1' experiencia en DataLakes.Conocimientos y/o experiencia en procesamiento de datos en tiempo real con tecnologb'/xc3/xad'a de Streaming (Kafka, Kinesis, Pubsub,) es un plus. b'/xc2/xbf'Qub'/xc3/xa9' vas a hacer? Diseb'/xc3/xb1'ar, construir y gestionar las plataformas de datos y los conductos de datos necesarios para la extraccib'/xc3/xb3'n,transformacib'/xc3/xb3'n y carga b'/xc3/xb3'ptimas de datos de diversas fuentes.Trabajar con las partes interesadas para ayudar con las necesidades relacionadas con los datos.Crear productos de datos para satisfacer las necesidades de mb'/xc3/xba'ltiples consumidores.Realizar tareas complejas de anb'/xc3/xa1'lisis y modelado de datos.Desarrollar e implementar actividades de calidad, perfilado y limpieza de datos. b'/xc2/xbf'Cub'/xc3/xa1'ndo y db'/xc3/xb3'nde trabajarb'/xc3/xa1's? Trabajarb'/xc3/xa1's bajo un esquema 100% remoto desde cualquier parte de Brasil. El horario es de lunes a viernes de 9 a 18 hs. b'/xc2/xbf'Con quib'/xc3/xa9'n trabajarb'/xc3/xa1's? Si te sumb'/xc3/xa1's a este desafb'/xc3/xad'o formarb'/xc3/xa1's parte de uno de los estudios mb'/xc3/xa1's grandes e importantes de la empresa: el b'
Ver aviso
Nueve de Julio-Buenos Aires (Buenos Aires)
b'/xc2/xbf'Qub'/xc3/xa9' hace la compab'/xc3/xb1'b'/xc3/xad'a? Compab'/xc3/xb1'b'/xc3/xad'a nativa digital con presencia global de gran escala de ingenierb'/xc3/xad'a, diseb'/xc3/xb1'o e innovacib'/xc3/xb3'n, con sedes ubicadas en 18 pab'/xc3/xad'ses entre Amb'/xc3/xa9'rica, Asia y Europa. Cuenta con un equipo de mb'/xc3/xa1's de 20 mil profesionales que forman parte de nuevos desafb'/xc3/xad'os y proyectos de vanguardia. b'/xc2/xbf'Qub'/xc3/xa9' necesitb'/xc3/xa1's para ser parte del equipo? A nivel personal: Ser flexible y estar orientado/a a objetivos.Tener imaginacib'/xc3/xb3'n y amar la innovacib'/xc3/xb3'n.Capacidad analb'/xc3/xad'tica de alto rendimiento.Disfrutar de la resolucib'/xc3/xb3'n de problemas.Habilidades de liderazgo. A nivel tb'/xc3/xa9'cnico: Experiencia de 5 ab'/xc3/xb1'os o mb'/xc3/xa1's trabajando como Data Engineer.Experiencia en Azure | AWS | GCP.Experiencia avanzada en Spark. Manejo de Databricks.Conocimientos y experiencias en Lenguajes de programacib'/xc3/xb3'n.Contar con un nivel avanzado de inglb'/xc3/xa9's | Excluyente.Experiencia con bases de datos SQL y NoSQL.Se valorarb'/xc3/xa1' experiencia en DataLakes.Conocimientos y/o experiencia en procesamiento de datos en tiempo real con tecnologb'/xc3/xad'a de Streaming (Kafka, Kinesis, Pubsub,) es un plus. b'/xc2/xbf'Qub'/xc3/xa9' vas a hacer? Diseb'/xc3/xb1'ar, construir y gestionar las plataformas de datos y los conductos de datos necesarios para la extraccib'/xc3/xb3'n,transformacib'/xc3/xb3'n y carga b'/xc3/xb3'ptimas de datos de diversas fuentes.Trabajar con las partes interesadas para ayudar con las necesidades relacionadas con los datos.Crear productos de datos para satisfacer las necesidades de mb'/xc3/xba'ltiples consumidores.Realizar tareas complejas de anb'/xc3/xa1'lisis y modelado de datos.Desarrollar e implementar actividades de calidad, perfilado y limpieza de datos. b'/xc2/xbf'Cub'/xc3/xa1'ndo y db'/xc3/xb3'nde trabajarb'/xc3/xa1's? Trabajarb'/xc3/xa1's bajo un esquema 100% remoto desde cualquier parte del pab'/xc3/xad's, si te encuentras en Santiago cuentan con la posibilidad de asistir a las oficinas de dicha ciudad (Db'/xc3/xad'as a definir). El horario es de lunes a viernes de 9 a 18 hs. b'/xc2/xbf'Con quib'/xc3/xa9'n trabajarb'/xc3/xa1's? Si te sumb'/xc3/xa1's a este desafb'/xc3/xad'o formarb'/xc3/xa1's parte de uno de los estudios mb'/xc3/xa1's grandes e importantes de la empresa: el b'
Ver aviso
Nueve de Julio-Buenos Aires (Buenos Aires)
En SMS Sudamb'/xc3/xa9'rica nos encontramos en la bb'/xc3/xba'squeda deb'/xc2/xa0'Data Analystb'/xc2/xa0'para sumar a un importante cliente.b'/xc2/xa0'Requisitos para el puesto:Estudiantes universitarios o graduados en Ing. Sistemas/Informb'/xc3/xa1'tica, Lic. Ciencias de la Computacib'/xc3/xb3'n/Ciencia de Datos o afines.Experiencia desarrollando data pipelines con Python.Experiencia en AWS (S3, Datasync, Step Functions, EMR, Glue, Athena).Experiencia trabajando con GitConocimientos de bases NoSQL (MongoDB/DocumentDB, DynamoDB)Conocimientos en Control-MSe valorarb'/xc3/xa1': Conocimientos de Gitlab Conocimientos de Terraform Conocimientos de metodologb'/xc3/xad'as b'/xc3/xa1'giles. Conocimientos de la industria financiera. Dominio de inglb'/xc3/xa9's tb'/xc3/xa9'cnico. Modalidad: Hibrido (1 o 2 veces por semana Tareas del puesto: Desarrollos de procesos de ingestas de datos desde entorno on-prem hacia entorno cloud.Que ofrecemos? Posicib'/xc3/xb3'n en relacib'/xc3/xb3'n de dependencia con SMS Sudamb'/xc3/xa9'rica.Prepaga para el vos y tu grupo familiarTalleres de inglesY mb'/xc3/xa1's beneficios corporativos.b'/xc2/xa0' Ubicacib'/xc3/xb3'n: Buenos Aires, Argentina
Ver aviso
Nueve de Julio-Buenos Aires (Buenos Aires)
Qub'/xc3/xa9' hace la compab'/xc3/xb1'b'/xc3/xad'a? Es una reconocida compab'/xc3/xb1'b'/xc3/xad'a de EE.UU que brinda soluciones de proteccib'/xc3/xb3'n, ahorro, jubilacib'/xc3/xb3'n y beneficios en el mundo. Lideran el mercado de seguros y estb'/xc3/xa1'n presentes en mb'/xc3/xa1's de 40 pab'/xc3/xad'ses de Asia, Latam y EE.UU con mb'/xc3/xa1's de 49.000 colaboradores que le brindan servicio a mb'/xc3/xa1's de 90 millones de clientes. b'/xc2/xbf'Qub'/xc3/xa9' necesitb'/xc3/xa1's para ser parte del equipo? A nivel personal: Excelente trato interpersonal.Proactividad.Gran capacidad de anb'/xc3/xa1'lisis.Autonomb'/xc3/xad'a y compromiso.Capacidad para trabajar en equipo.Excelentes habilidades de comunicacib'/xc3/xb3'n: Capacidad demostrada para explicar contenido tb'/xc3/xa9'cnico complejo a audiencias tanto tb'/xc3/xa9'cnicas como no tb'/xc3/xa9'cnicas.Habilidades analb'/xc3/xad'ticas y de pensamiento crb'/xc3/xad'tico. A nivel tb'/xc3/xa9'cnico: Mb'/xc3/xa1's de 5 ab'/xc3/xb1'os de experiencia en desarrollo de ETL y data warehousing | Excluyente.Mb'/xc3/xa1's de 3 ab'/xc3/xb1'os de experiencia en el diseb'/xc3/xb1'o de ETL y lagos de datos en la nube o plataformas basadas en big data | Excluyente.Experiencia demostrada en la implementacib'/xc3/xb3'n y despliegue de centros de datos escalables y de alto rendimiento a escala global.Experiencia demostrada en tecnologb'/xc3/xad'as de bases de datos de b'/xc3/xba'ltima generacib'/xc3/xb3'n y servicios en la nube como Azure, GCP, Data Bricks o SnowFlake; experiencia profunda en tecnologb'/xc3/xad'as como Spark (Scala/python/Java), ADLS, Kafka, SQL, Synapse SQL, Cosmos DB, Graph DBs [en Azure use SPARK] | Excluyente.Experiencia prb'/xc3/xa1'ctica en implementacib'/xc3/xb3'n de almacenes de datos analb'/xc3/xad'ticos en la plataforma Azure utilizando ADLS/Azure data factory /Data Bricks y Cosmos DB (mongo/graph API) | Excluyente.Sb'/xc3/xb3'lidos conocimientos analb'/xc3/xad'ticos relacionados con el trabajo con conjuntos de datos no estructurados | Excluyente.Sb'/xc3/xb3'lidos conocimientos de SQL y habilidades de anb'/xc3/xa1'lisis de datos para la deteccib'/xc3/xb3'n de anomalb'/xc3/xad'as y el aseguramiento de la calidad de los datos | Excluyente.Ganas de aprender nuevas tecnologb'/xc3/xad'as sobre la marcha y llevarlas a produccib'/xc3/xb3'n.Experiencia demostrada en gestib'/xc3/xb3'n de la configuracib'/xc3/xb3'n, automatizacib'/xc3/xb3'n DevOps.b'/xc2/xa0'Experiencia de trabajo en programas empresariales complejos a gran escala, multiequipo y en metodologb'/xc3/xad'as de desarrollo b'/xc3/xa1'gil.Experiencia en implementacib'/xc3/xb3'n de soluciones, pruebas de rendimiento y ajuste; ADLS, base de datos Synapse SQL o gestib'/xc3/xb3'n de GCP Big Query y GCS y ajuste de rendimiento - Particionamiento / Bucketing | Excluyente. b'/xc2/xbf'Qub'/xc3/xa9' vas a hacer? Recopilar, almacenar, procesar y analizar grandes conjuntos de datos para construir e implementar procesos de extraccib'/xc3/xb3'n, transferencia y carga (ETL).Crear marcos y herramientas para desarrolladores, diseb'/xc3/xb1'ar materiales de formacib'/xc3/xb3'n, impartir formacib'/xc3/xb3'n para desarrolladores. Evangelizar nuevas ideas, estb'/xc3/xa1'ndares, mejores prb'/xc3/xa1'cticas y soluciones con la comunidad de desarrolladores y tb'/xc3/xa9'cnicos.Desarrollar cb'/xc3/xb3'digo de calidad con optimizaciones de rendimiento bien pensadas desde la fase de desarrollo.Ganas de aprender nuevas tecnologb'/xc3/xad'as y estar dispuesto a trabajar en nuevas tecnologb'/xc3/xad'as de vanguardia en la nube.Ingerir grandes volb'/xc3/xba'menes de datos de diversas plataformas para las necesidades y escribir cb'/xc3/xb3'digo ETL de alto rendimiento, fiable y mantenible.Interactuar con analistas de negocio y analistas funcionales para obtener los requisitos e implementar las soluciones ETL.Proporcionar apoyo tb'/xc3/xa9'cnico a los equipos de proyecto durante todo el ciclo de vida del proyecto en torno a plataformas tecnolb'/xc3/xb3'gicas, diseb'/xc3/xb1'o de soluciones, seguridad, depuracib'/xc3/xb3'n, creacib'/xc3/xb3'n de perfiles, ajuste del rendimiento, etc. b'/xc2/xbf'Cub'/xc3/xa1'l es el desafb'/xc3/xad'o de la posicib'/xc3/xb3'n?b'/xc2/xa0' En LATAM Data Hub (LDH), la misib'/xc3/xb3'n es construir la prb'/xc3/xb3'xima generacib'/xc3/xb3'n de data lake house para la compab'/xc3/xb1'b'/xc3/xad'a y ayudar a desplegarlo en varios pab'/xc3/xad'ses de LATAM. Han desarrollado una plataforma de clase mundial, nativa de la nube, para permitir la presentacib'/xc3/xb3'n de informes, anb'/xc3/xa1'lisis, canalizacib'/xc3/xb3'n de suministro de datos y suministro en tiempo real de los datos a diversos canales digitales y no digitales. La plataforma aprovecha tecnologb'/xc3/xad'as propias y de cb'/xc3/xb3'digo abierto de vanguardia para crear un sistema altamente configurable que puede adaptarse a las necesidades individuales del mercado rb'/xc3/xa1'pidamente y a bajo coste. La plataforma se ejecuta en un entorno en la nube elb'/xc3/xa1'stico y totalmente en contenedores, y estb'/xc3/xa1' diseb'/xc3/xb1'ada para escalar y dar servicio a millones de usuarios. b'/xc2/xbf'Con quib'/xc3/xa9'n trabajarb'/xc3/xa1's?b'/xc2/xa0' Formarb'/xc3/xa1's parte de un equipo regional, participando de proyectos en Brasil, Chile y Mb'/xc3/xa9'xico. b'/xc2/xbf'Cub'/xc3/xa1'ndo y db'/xc3/xb3'nde trabajarb'/xc3/xa1's? Vas a trabajar en un esquema de 9 a 18 hs. Si sos de Buenos Aires serb'/xc3/xa1' hb'/xc3/xad'brido con 4 db'/xc3/xad'as de home office y 1 db'/xc3/xad'a on site en oficinas de Microcentro. En el caso de vivir en otra provincia el esquema es 100% remoto. b'/xc2/xbf'Qub'/xc3/xa9' ofrecen? Relacib'/xc3/xb3'n de dependencia directa.Un porcentaje del salario dolarizado.Prepaga para el/la empleado/a y grupo familiar primario.Posibilidad de Certificarse.Reintegro por gastos de conectividad (Se actualizarb'/xc3/xa1' perib'/xc3/xb3'dicamente).Db'/xc3/xad'a off de cumpleab'/xc3/xb1'os.Db'/xc3/xad'a de herencia cultura libre.Viernes flex a partir de las 14 pm.Seguro de vida adicional que corresponde por ley.Licencia por paternidad extendida.Soft Landing en licencias por maternidad.Pago b'/xc3/xba'nico por hijo para compra de b'/xc3/xba'tiles escolares.Asesoramiento impositivo.Check-up mb'/xc3/xa9'dico anual.Vacunacib'/xc3/xb3'n in company.Desayuno saludable en la oficina.Vacaciones por db'/xc3/xad'as hb'/xc3/xa1'biles.Reintegro por guarderb'/xc3/xad'as/jardb'/xc3/xad'n de infantes.Plataforma de e-learning para cursos de idiomas y training.Gimnasio in company.Estacionamiento.Descuentos en SportClub para empleados/as y grupo familiar primario, o reintegro de gastos por actividad fb'/xc3/xad'sica.Descuento en seguros (automotor, rodados y hogar).Club de beneficios. b'/xc2/xbf'De qub'/xc3/xa9' fases consta el proceso de seleccib'/xc3/xb3'n?b'/xc2/xa0' Tendrb'/xc3/xa1's una primera entrevista con nuestra Recruiter, Rocb'/xc3/xad'o Albelo, para conocer tus experiencias laborales e intereses. Luego, participarb'/xc3/xa1's de una entrevista en inglb'/xc3/xa9's en la que estarb'/xc3/xa1'n los lb'/xc3/xad'deres tb'/xc3/xa9'cnicos y representantes de RH para que puedan conocerte.
Ver aviso
Nueve de Julio-Buenos Aires (Buenos Aires)
Qub'/xc3/xa9' hace la compab'/xc3/xb1'b'/xc3/xad'a? Es una reconocida compab'/xc3/xb1'b'/xc3/xad'a de EE.UU que brinda soluciones de proteccib'/xc3/xb3'n, ahorro, jubilacib'/xc3/xb3'n y beneficios en el mundo. Lideran el mercado de seguros y estb'/xc3/xa1'n presentes en mb'/xc3/xa1's de 40 pab'/xc3/xad'ses de Asia, Latam y EE.UU con mb'/xc3/xa1's de 49.000 colaboradores que le brindan servicio a mb'/xc3/xa1's de 90 millones de clientes. b'/xc2/xbf'Qub'/xc3/xa9' necesitb'/xc3/xa1's para ser parte del equipo? A nivel personal: Excelente trato interpersonal.Proactividad.Gran capacidad de anb'/xc3/xa1'lisis.Autonomb'/xc3/xad'a y compromiso.Capacidad para trabajar en equipo.Excelentes habilidades de comunicacib'/xc3/xb3'n: Capacidad demostrada para explicar contenido tb'/xc3/xa9'cnico complejo a audiencias tanto tb'/xc3/xa9'cnicas como no tb'/xc3/xa9'cnicas.Habilidades analb'/xc3/xad'ticas y de pensamiento crb'/xc3/xad'tico. A nivel tb'/xc3/xa9'cnico: Mb'/xc3/xa1's de 5 ab'/xc3/xb1'os de experiencia en desarrollo de ETL y data warehousing | Excluyente.Mb'/xc3/xa1's de 3 ab'/xc3/xb1'os de experiencia en el diseb'/xc3/xb1'o de ETL y lagos de datos en la nube o plataformas basadas en big data | Excluyente.Experiencia demostrada en la implementacib'/xc3/xb3'n y despliegue de centros de datos escalables y de alto rendimiento a escala global.Experiencia demostrada en tecnologb'/xc3/xad'as de bases de datos de b'/xc3/xba'ltima generacib'/xc3/xb3'n y servicios en la nube como Azure, GCP, Data Bricks o SnowFlake; experiencia profunda en tecnologb'/xc3/xad'as como Spark (Scala/python/Java), ADLS, Kafka, SQL, Synapse SQL, Cosmos DB, Graph DBs [en Azure use SPARK] | Excluyente.Experiencia prb'/xc3/xa1'ctica en implementacib'/xc3/xb3'n de almacenes de datos analb'/xc3/xad'ticos en la plataforma Azure utilizando ADLS/Azure data factory /Data Bricks y Cosmos DB (mongo/graph API) | Excluyente.Sb'/xc3/xb3'lidos conocimientos analb'/xc3/xad'ticos relacionados con el trabajo con conjuntos de datos no estructurados | Excluyente.Sb'/xc3/xb3'lidos conocimientos de SQL y habilidades de anb'/xc3/xa1'lisis de datos para la deteccib'/xc3/xb3'n de anomalb'/xc3/xad'as y el aseguramiento de la calidad de los datos | Excluyente.Ganas de aprender nuevas tecnologb'/xc3/xad'as sobre la marcha y llevarlas a produccib'/xc3/xb3'n.Experiencia demostrada en gestib'/xc3/xb3'n de la configuracib'/xc3/xb3'n, automatizacib'/xc3/xb3'n DevOps.b'/xc2/xa0'Experiencia de trabajo en programas empresariales complejos a gran escala, multiequipo y en metodologb'/xc3/xad'as de desarrollo b'/xc3/xa1'gil.Experiencia en implementacib'/xc3/xb3'n de soluciones, pruebas de rendimiento y ajuste; ADLS, base de datos Synapse SQL o gestib'/xc3/xb3'n de GCP Big Query y GCS y ajuste de rendimiento - Particionamiento / Bucketing | Excluyente. b'/xc2/xbf'Qub'/xc3/xa9' vas a hacer? Recopilar, almacenar, procesar y analizar grandes conjuntos de datos para construir e implementar procesos de extraccib'/xc3/xb3'n, transferencia y carga (ETL).Crear marcos y herramientas para desarrolladores, diseb'/xc3/xb1'ar materiales de formacib'/xc3/xb3'n, impartir formacib'/xc3/xb3'n para desarrolladores. Evangelizar nuevas ideas, estb'/xc3/xa1'ndares, mejores prb'/xc3/xa1'cticas y soluciones con la comunidad de desarrolladores y tb'/xc3/xa9'cnicos.Desarrollar cb'/xc3/xb3'digo de calidad con optimizaciones de rendimiento bien pensadas desde la fase de desarrollo.Ganas de aprender nuevas tecnologb'/xc3/xad'as y estar dispuesto a trabajar en nuevas tecnologb'/xc3/xad'as de vanguardia en la nube.Ingerir grandes volb'/xc3/xba'menes de datos de diversas plataformas para las necesidades y escribir cb'/xc3/xb3'digo ETL de alto rendimiento, fiable y mantenible.Interactuar con analistas de negocio y analistas funcionales para obtener los requisitos e implementar las soluciones ETL.Proporcionar apoyo tb'/xc3/xa9'cnico a los equipos de proyecto durante todo el ciclo de vida del proyecto en torno a plataformas tecnolb'/xc3/xb3'gicas, diseb'/xc3/xb1'o de soluciones, seguridad, depuracib'/xc3/xb3'n, creacib'/xc3/xb3'n de perfiles, ajuste del rendimiento, etc. b'/xc2/xbf'Cub'/xc3/xa1'l es el desafb'/xc3/xad'o de la posicib'/xc3/xb3'n?b'/xc2/xa0' En LATAM Data Hub (LDH), la misib'/xc3/xb3'n es construir la prb'/xc3/xb3'xima generacib'/xc3/xb3'n de data lake house para la compab'/xc3/xb1'b'/xc3/xad'a y ayudar a desplegarlo en varios pab'/xc3/xad'ses de LATAM. Han desarrollado una plataforma de clase mundial, nativa de la nube, para permitir la presentacib'/xc3/xb3'n de informes, anb'/xc3/xa1'lisis, canalizacib'/xc3/xb3'n de suministro de datos y suministro en tiempo real de los datos a diversos canales digitales y no digitales. La plataforma aprovecha tecnologb'/xc3/xad'as propias y de cb'/xc3/xb3'digo abierto de vanguardia para crear un sistema altamente configurable que puede adaptarse a las necesidades individuales del mercado rb'/xc3/xa1'pidamente y a bajo coste. La plataforma se ejecuta en un entorno en la nube elb'/xc3/xa1'stico y totalmente en contenedores, y estb'/xc3/xa1' diseb'/xc3/xb1'ada para escalar y dar servicio a millones de usuarios. b'/xc2/xbf'Con quib'/xc3/xa9'n trabajarb'/xc3/xa1's?b'/xc2/xa0' Formarb'/xc3/xa1's parte de un equipo regional, participando de proyectos en Brasil, Chile y Mb'/xc3/xa9'xico. b'/xc2/xbf'Cub'/xc3/xa1'ndo y db'/xc3/xb3'nde trabajarb'/xc3/xa1's? Vas a trabajar en un esquema de 9 a 18 hs. Si sos de Buenos Aires serb'/xc3/xa1' hb'/xc3/xad'brido con 4 db'/xc3/xad'as de home office y 1 db'/xc3/xad'a on site en oficinas de Microcentro. En el caso de vivir en otra provincia el esquema es 100% remoto. b'/xc2/xbf'Qub'/xc3/xa9' ofrecen? Relacib'/xc3/xb3'n de dependencia directa.Un porcentaje del salario dolarizado.Prepaga para el/la empleado/a y grupo familiar primario.Posibilidad de Certificarse.Reintegro por gastos de conectividad (Se actualizarb'/xc3/xa1' perib'/xc3/xb3'dicamente).Db'/xc3/xad'a off de cumpleab'/xc3/xb1'os.Db'/xc3/xad'a de herencia cultura libre.Viernes flex a partir de las 14 pm.Seguro de vida adicional que corresponde por ley.Licencia por paternidad extendida.Soft Landing en licencias por maternidad.Pago b'/xc3/xba'nico por hijo para compra de b'/xc3/xba'tiles escolares.Asesoramiento impositivo.Check-up mb'/xc3/xa9'dico anual.Vacunacib'/xc3/xb3'n in company.Desayuno saludable en la oficina.Vacaciones por db'/xc3/xad'as hb'/xc3/xa1'biles.Reintegro por guarderb'/xc3/xad'as/jardb'/xc3/xad'n de infantes.Plataforma de e-learning para cursos de idiomas y training.Gimnasio in company.Estacionamiento.Descuentos en SportClub para empleados/as y grupo familiar primario, o reintegro de gastos por actividad fb'/xc3/xad'sica.Descuento en seguros (automotor, rodados y hogar).Club de beneficios. b'/xc2/xbf'De qub'/xc3/xa9' fases consta el proceso de seleccib'/xc3/xb3'n?b'/xc2/xa0' Tendrb'/xc3/xa1's una primera entrevista con alguna de nuestras Recruiters, Rocb'/xc3/xad'o Albelob'/xc2/xa0'ob'/xc2/xa0'Carla Carrizo, para conocer tus experiencias laborales e intereses. Luego, participarb'/xc3/xa1's de una entrevista en inglb'/xc3/xa9's en la que estarb'/xc3/xa1'n los lb'/xc3/xad'deres tb'/xc3/xa9'cnicos y representantes de RH para que puedan conocerte.
Ver aviso
Nueve de Julio-Buenos Aires (Buenos Aires)
b'/xc2/xa0' b'/xc2/xbf'Qub'/xc3/xa9' hace la compab'/xc3/xb1'b'/xc3/xad'a? Es una reconocida compab'/xc3/xb1'b'/xc3/xad'a de EE.UU que brinda soluciones de proteccib'/xc3/xb3'n, ahorro, jubilacib'/xc3/xb3'n y beneficios en el mundo.b'/xc2/xa0'Lideran el mercado de seguros y estb'/xc3/xa1'n presentes en mb'/xc3/xa1's de 40 pab'/xc3/xad'ses de Asia, Latam y EE.UU con mb'/xc3/xa1's de 49.000 colaboradores que le brindan servicio a mb'/xc3/xa1's de 90 millones de clientes. b'/xc2/xbf'Qub'/xc3/xa9' necesitb'/xc3/xa1's para ser parte del equipo? A nivel personal: Excelente trato interpersonal.Proactividad.Gran capacidad de anb'/xc3/xa1'lisis.Autonomb'/xc3/xad'a y compromiso.Capacidad para trabajar en equipo.Excelentes habilidades de comunicacib'/xc3/xb3'n:b'/xc2/xa0'Capacidad demostrada para explicar contenido tb'/xc3/xa9'cnico complejo a audiencias tanto tb'/xc3/xa9'cnicas como no tb'/xc3/xa9'cnicas.Habilidades analb'/xc3/xad'ticas y de pensamiento crb'/xc3/xad'tico. A nivel tb'/xc3/xa9'cnico: Mb'/xc3/xa1's de 3 ab'/xc3/xb1'os de experiencia en desarrollo de ETL y data warehousingb'/xc2/xa0'| Excluyente.Mb'/xc3/xa1's de 3 ab'/xc3/xb1'os de experiencia en el diseb'/xc3/xb1'o de ETL y datalake en la nube o plataformas basadas en big datab'/xc2/xa0'| Excluyente.Experiencia demostrada en lab'/xc2/xa0'implementacib'/xc3/xb3'n y despliegue de centros de datos escalables y de alto rendimiento a escala global.Experiencia demostrada enb'/xc2/xa0'tecnologb'/xc3/xad'as de bases de datos de b'/xc3/xba'ltima generacib'/xc3/xb3'n y servicios en la nubeb'/xc2/xa0'como Azure, GCP, AWS, Data Bricks o SnowFlake; experiencia profunda en tecnologb'/xc3/xad'as como Spark (Scala/python/Java), ADLS, Kafka, SQL, Synapse SQL, Cosmos DB, Graph DBs [en Azure use SPARK] | Excluyente.Experiencia prb'/xc3/xa1'ctica enb'/xc2/xa0'implementacib'/xc3/xb3'n de almacenes de datos analb'/xc3/xad'ticosb'/xc2/xa0'en plataformas cloud (Azure, GCP o AWS) utilizando ADLS/Azure data factory /Data Bricks y Cosmos DB (mongo/graph API) | Excluyente.Sb'/xc3/xb3'lidos conocimientos analb'/xc3/xad'ticos relacionados con elb'/xc2/xa0'trabajo con conjuntos de datos no estructuradosb'/xc2/xa0'| Excluyente.Sb'/xc3/xb3'lidos conocimientos deb'/xc2/xa0'SQL y habilidades de anb'/xc3/xa1'lisis de datosb'/xc2/xa0'para la deteccib'/xc3/xb3'n de anomalb'/xc3/xad'as y el aseguramiento de la calidad de los datos | Excluyente.Ganas de aprender nuevas tecnologb'/xc3/xad'asb'/xc2/xa0'sobre la marcha y llevarlas a produccib'/xc3/xb3'n.Experiencia demostrada enb'/xc2/xa0'gestib'/xc3/xb3'n de la configuracib'/xc3/xb3'n, automatizacib'/xc3/xb3'n DevOps.b'/xc2/xa0'Experiencia de trabajo enb'/xc2/xa0'programas empresariales complejos a gran escala, multiequipo y en metodologb'/xc3/xad'as de desarrollo b'/xc3/xa1'gil.Experiencia enb'/xc2/xa0'implementacib'/xc3/xb3'n de soluciones, pruebas de rendimiento y ajuste; ADLS, base de datos Synapse SQL o gestib'/xc3/xb3'n de GCP Big Query y GCS y ajuste de rendimiento b'/xe2/x80/x93' Particionamiento / Bucketing | Deseable. b'/xc2/xbf'Qub'/xc3/xa9' vas a hacer? Recopilar, almacenar, procesar y analizar grandes conjuntos de datosb'/xc2/xa0'para construir e implementar procesos de extraccib'/xc3/xb3'n, transferencia y carga (ETL).Crear marcos y herramientasb'/xc2/xa0'para desarrolladores, diseb'/xc3/xb1'ar materiales de formacib'/xc3/xb3'n, impartir formacib'/xc3/xb3'n para desarrolladores. Evangelizar nuevas ideas, estb'/xc3/xa1'ndares, mejores prb'/xc3/xa1'cticas y soluciones con la comunidad de desarrolladores y tb'/xc3/xa9'cnicos.Desarrollar cb'/xc3/xb3'digo de calidadb'/xc2/xa0'con optimizaciones de rendimiento bien pensadas desde la fase de desarrollo.Ganas de aprenderb'/xc2/xa0'nuevas tecnologb'/xc3/xad'as y estar dispuesto a trabajar en nuevas tecnologb'/xc3/xad'as de vanguardia en la nube.Ingerir grandes volb'/xc3/xba'menes de datos de diversas plataformasb'/xc2/xa0'para las necesidades y escribir cb'/xc3/xb3'digo ETL de alto rendimiento, fiable y mantenible.Interactuar con analistas de negocio y analistas funcionalesb'/xc2/xa0'para obtener los requisitos e implementar las soluciones ETL.Proporcionar apoyo tb'/xc3/xa9'cnicob'/xc2/xa0'a los equipos de proyecto durante todo el ciclo de vida del proyecto en torno a plataformas tecnolb'/xc3/xb3'gicas, diseb'/xc3/xb1'o de soluciones, seguridad, depuracib'/xc3/xb3'n, creacib'/xc3/xb3'n de perfiles, ajuste del rendimiento, etc. b'/xc2/xbf'Cub'/xc3/xa1'l es el desafb'/xc3/xad'o de la posicib'/xc3/xb3'n?b'/xc2/xa0' En LATAM Data Hub (LDH), la misib'/xc3/xb3'n esb'/xc2/xa0'construir la prb'/xc3/xb3'xima generacib'/xc3/xb3'n de data lake house para la compab'/xc3/xb1'b'/xc3/xad'ab'/xc2/xa0'y ayudar a desplegarlo en varios pab'/xc3/xad'ses de LATAM. Han desarrollado unab'/xc2/xa0'plataforma de clase mundial, nativa de la nube, para permitir la presentacib'/xc3/xb3'n de informes, anb'/xc3/xa1'lisis, canalizacib'/xc3/xb3'n de suministro de datos y suministro en tiempo real de los datos a diversos canales digitales y no digitales. La plataforma aprovecha tecnologb'/xc3/xad'as propias y de cb'/xc3/xb3'digo abierto de vanguardia para crear un sistema altamente configurable que puede adaptarse a las necesidades individuales del mercado rb'/xc3/xa1'pidamente y a bajo coste. La plataforma se ejecuta en un entorno en la nube elb'/xc3/xa1'stico y totalmente en contenedores, y estb'/xc3/xa1' diseb'/xc3/xb1'ada para escalar y dar servicio a millones de usuarios. b'/xc2/xbf'Con quib'/xc3/xa9'n trabajarb'/xc3/xa1's?b'/xc2/xa0' Formarb'/xc3/xa1's parte de unb'/xc2/xa0'equipo regional, participando de proyectos en Brasil, Chile y Mb'/xc3/xa9'xico. b'/xc2/xbf'Cub'/xc3/xa1'ndo y db'/xc3/xb3'nde trabajarb'/xc3/xa1's? Vas a trabajar en un esquema deb'/xc2/xa0'9 a 18 hsb'/xc2/xa0'con 4 db'/xc3/xad'as de home office y 1 db'/xc3/xad'a on siteb'/xc2/xa0'en oficinas de Microcentro. El esquema a demanda del sector, por lo que es probable que algunas semanas sea 100% remoto. b'/xc2/xbf'Qub'/xc3/xa9' ofrecen? Relacib'/xc3/xb3'n de dependencia directa.Un porcentaje del salario dolarizado.Prepaga para el/la empleado/a y grupo familiar primario.Posibilidad deb'/xc2/xa0'Certificarse.Reintegro por gastos de conectividadb'/xc2/xa0'(Se actualizarb'/xc3/xa1' perib'/xc3/xb3'dicamente).Db'/xc3/xad'a off de cumpleab'/xc3/xb1'os.Db'/xc3/xad'a de herencia cultura libre.Viernes flexb'/xc2/xa0'a partir de las 14 pm.Seguro de vida adicional que corresponde por ley.Licencia por paternidad extendida.Soft Landingb'/xc2/xa0'en licencias por maternidad.Pago b'/xc3/xba'nico por hijo para compra de b'/xc3/xba'tiles escolares.Asesoramiento impositivo.Check-up mb'/xc3/xa9'dico anual.Vacunacib'/xc3/xb3'n in company.Desayuno saludableb'/xc2/xa0'en la oficina.Vacaciones por db'/xc3/xad'as hb'/xc3/xa1'biles.Reintegro por guarderb'/xc3/xad'as/jardb'/xc3/xad'n de infantes.Plataforma de e-learningb'/xc2/xa0'para cursos de idiomas yb'/xc2/xa0'training.Gimnasio in company.Estacionamiento.Descuentos en SportClubb'/xc2/xa0'para empleados/as y grupo familiar primario, o reintegro de gastos por actividad fb'/xc3/xad'sica.Descuento en segurosb'/xc2/xa0'(automotor, rodados y hogar).Club de beneficios. b'/xc2/xbf'De qub'/xc3/xa9' fases consta el proceso de seleccib'/xc3/xb3'n?b'/xc2/xa0' Tendrb'/xc3/xa1's unab'/xc2/xa0'primera entrevista conb'/xc2/xa0'alguna de nuestras Recruiters,b'/xc2/xa0'Rocb'/xc3/xad'o Albelob'/xc2/xa0'ob'/xc2/xa0'Carla Carrizo b'/xc3/x81'lvarez, para conocer tus experiencias laborales e intereses. Luego, participarb'/xc3/xa1's de unab'/xc2/xa0'entrevista en inglb'/xc3/xa9's en la que estarb'/xc3/xa1'n los lb'/xc3/xad'deres tb'/xc3/xa9'cnicos y representantes de RH para que puedan conocerte.
Ver aviso
Nueve de Julio-Buenos Aires (Buenos Aires)
b'/xc2/xbf'Qub'/xc3/xa9' hace la compab'/xc3/xb1'b'/xc3/xad'a? b'/xc2/xa0' Es una reconocida compab'/xc3/xb1'b'/xc3/xad'a de EE.UU que brinda soluciones de proteccib'/xc3/xb3'n, ahorro, jubilacib'/xc3/xb3'n y beneficios en el mundo.b'/xc2/xa0' b'/xc2/xa0' b'/xc2/xbf'Qub'/xc3/xa9' necesitb'/xc3/xa1's para ser parte del equipo? A nivel personal: Excelente trato interpersonal.Proactividad.Gran capacidad de anb'/xc3/xa1'lisis.Autonomb'/xc3/xad'a y compromiso.Capacidad para trabajar en equipo.Excelentes habilidades de comunicacib'/xc3/xb3'n: Capacidad demostrada para explicar contenido tb'/xc3/xa9'cnico complejo a audiencias tanto tb'/xc3/xa9'cnicas como no tb'/xc3/xa9'cnicas.Habilidades analb'/xc3/xad'ticas y de pensamiento crb'/xc3/xad'tico. A nivel tb'/xc3/xa9'cnico: Mb'/xc3/xa1's de 5 ab'/xc3/xb1'os de experiencia en desarrollo de ETL y data warehousing | Excluyente.Mb'/xc3/xa1's de 3 ab'/xc3/xb1'os de experiencia en el diseb'/xc3/xb1'o de ETL y lagos de datos en la nube o plataformas basadas en big data | Excluyente.Experiencia demostrada en la implementacib'/xc3/xb3'n y despliegue de centros de datos escalables y de alto rendimiento a escala global.Experiencia demostrada en tecnologb'/xc3/xad'as de bases de datos de b'/xc3/xba'ltima generacib'/xc3/xb3'n y servicios en la nube como Azure, GCP, Data Bricks o SnowFlake; experiencia profunda en tecnologb'/xc3/xad'as como Spark (Scala/python/Java), ADLS, Kafka, SQL, Synapse SQL, Cosmos DB, Graph DBs [en Azure use SPARK] | Excluyente. b'/xc2/xa0' b'/xc2/xbf'Qub'/xc3/xa9' vas a hacer? Recopilar, almacenar, procesar y analizar grandes conjuntos de datos para construir e implementar procesos de extraccib'/xc3/xb3'n, transferencia y carga (ETL).Crear marcos y herramientas para desarrolladores, diseb'/xc3/xb1'ar materiales de formacib'/xc3/xb3'n, impartir formacib'/xc3/xb3'n para desarrolladores. Evangelizar nuevas ideas, estb'/xc3/xa1'ndares, mejores prb'/xc3/xa1'cticas y soluciones con la comunidad de desarrolladores y tb'/xc3/xa9'cnicos.Desarrollar cb'/xc3/xb3'digo de calidad con optimizaciones de rendimiento bien pensadas desde la fase de desarrollo.Ganas de aprender nuevas tecnologb'/xc3/xad'as y estar dispuesto a trabajar en nuevas tecnologb'/xc3/xad'as de vanguardia en la nube.Ingerir grandes volb'/xc3/xba'menes de datos de diversas plataformas para las necesidades y escribir cb'/xc3/xb3'digo ETL de alto rendimiento, fiable y mantenible.Interactuar con analistas de negocio y analistas funcionales para obtener los requisitos e implementar las soluciones ETL.Proporcionar apoyo tb'/xc3/xa9'cnico a los equipos de proyecto durante todo el ciclo de vida del proyecto en torno a plataformas tecnolb'/xc3/xb3'gicas, diseb'/xc3/xb1'o de soluciones, seguridad, depuracib'/xc3/xb3'n, creacib'/xc3/xb3'n de perfiles, ajuste del rendimiento, etc. b'/xc2/xa0' b'/xc2/xbf'Cub'/xc3/xa1'l es el desafb'/xc3/xad'o de la posicib'/xc3/xb3'n?b'/xc2/xa0' En LATAM Data Hub (LDH), la misib'/xc3/xb3'n es construir la prb'/xc3/xb3'xima generacib'/xc3/xb3'n de data lake house para la compab'/xc3/xb1'b'/xc3/xad'a y ayudar a desplegarlo en varios pab'/xc3/xad'ses de LATAM. Han desarrollado una plataforma de clase mundial, nativa de la nube, para permitir la presentacib'/xc3/xb3'n de informes, anb'/xc3/xa1'lisis, canalizacib'/xc3/xb3'n de suministro de datos y suministro en tiempo real de los datos a diversos canales digitales y no digitales. La plataforma aprovecha tecnologb'/xc3/xad'as propias y de cb'/xc3/xb3'digo abierto de vanguardia para crear un sistema altamente configurable que puede adaptarse a las necesidades individuales del mercado rb'/xc3/xa1'pidamente y a bajo coste. b'/xc2/xa0' b'/xc2/xbf'Con quib'/xc3/xa9'n trabajarb'/xc3/xa1's?b'/xc2/xa0' Formarb'/xc3/xa1's parte de un equipo regional, participando de proyectos en Brasil, Chile y Mb'/xc3/xa9'xico. b'/xc2/xa0' b'/xc2/xbf'Cub'/xc3/xa1'ndo y db'/xc3/xb3'nde trabajarb'/xc3/xa1's? Vas a trabajar en un esquema de 9 a 18 hs. Si sos de Buenos Aires serb'/xc3/xa1' hb'/xc3/xad'brido con 4 db'/xc3/xad'as de home office y 1 db'/xc3/xad'a on site en oficinas de Microcentro. En el caso de vivir en otra provincia el esquema es 100% remoto. b'/xc2/xa0' b'/xc2/xbf'Qub'/xc3/xa9' ofrecen? Relacib'/xc3/xb3'n de dependencia directa.Un porcentaje del salario dolarizado.Prepaga para el/la empleado/a y grupo familiar primario.Posibilidad de Certificarse.Reintegro por gastos de conectividad (Se actualizarb'/xc3/xa1' perib'/xc3/xb3'dicamente).Db'/xc3/xad'a off de cumpleab'/xc3/xb1'os.Db'/xc3/xad'a de herencia cultura libre.Viernes flex a partir de las 14 pm.Seguro de vida adicional que corresponde por ley.Licencia por paternidad extendida.Soft Landing en licencias por maternidad.Pago b'/xc3/xba'nico por hijo para compra de b'/xc3/xba'tiles escolares.Asesoramiento impositivo.Check-up mb'/xc3/xa9'dico anual.Vacunacib'/xc3/xb3'n in company.Desayuno saludable en la oficina.Vacaciones por db'/xc3/xad'as hb'/xc3/xa1'biles.Reintegro por guarderb'/xc3/xad'as/jardb'/xc3/xad'n de infantes.Plataforma de e-learning para cursos de idiomas y training.Gimnasio in company.Estacionamiento.Descuentos en SportClub para empleados/as y grupo familiar primario, o reintegro de gastos por actividad fb'/xc3/xad'sica.Descuento en seguros (automotor, rodados y hogar).Club de beneficios. b'/xc2/xa0' b'/xc2/xbf'De qub'/xc3/xa9' fases consta el proceso de seleccib'/xc3/xb3'n?b'/xc2/xa0' Tendrb'/xc3/xa1's una primera entrevista con alguna de nuestras Recruiters, Rocb'/xc3/xad'o Albelob'/xc2/xa0'ob'/xc2/xa0'Carla Carrizo, para conocer tus experiencias laborales e intereses. Luego, participarb'/xc3/xa1's de una entrevista en inglb'/xc3/xa9's en la que estarb'/xc3/xa1'n los lb'/xc3/xad'deres tb'/xc3/xa9'cnicos y representantes de RH para que puedan conocerte.
Ver aviso
Nueve de Julio-Buenos Aires (Buenos Aires)
b'/xc2/xbf'Qub'/xc3/xa9' hace la compab'/xc3/xb1'b'/xc3/xad'a? Empresa lb'/xc3/xad'der en el sector de medios digitales de Argentina con una amplia trayectoria en el mercado, se destaca por ofrecer contenido periodb'/xc3/xad'stico de calidad y de actualidad a travb'/xc3/xa9's de su plataforma online. b'/xc2/xbf'Qub'/xc3/xa9' necesitb'/xc3/xa1's para ser parte del equipo? A nivel personal: Capacidad de colaborar y trabajar en equipo.Habilidades organizativas, de tiempo y de autogestib'/xc3/xb3'n.Orientacib'/xc3/xb3'n a los resultados.Enfoque analb'/xc3/xad'tico. A nivel tb'/xc3/xa9'cnico: Esperamos que hayas tenido la oportunidad de trabajar en roles similares por al menos 3 ab'/xc3/xb1'os.b'/xc2/xa0'Experiencia en diseb'/xc3/xb1'o, desarrollo e implementacib'/xc3/xb3'n de pipelines de datos en la nube | Si contb'/xc3/xa1's con experiencia en GCP es un plus.Manejo de base de datos SQL | Excluyente.b'/xc2/xa0'Experiencia con Python y Bash.b'/xc2/xa0'Conocimientos en herramientas de almacenamiento de datos como BigQuery, Data Lake o Cloud Storage. b'/xc2/xbf'Qub'/xc3/xa9' vas a hacer? Trabajar en el diseb'/xc3/xb1'o e implementacib'/xc3/xb3'n de pipelines de datos.b'/xc2/xa0'Transformar y limpiar los datos de diversas fuentes velando por la calidad, seguridad e integridad de los mismos.b'/xc2/xa0'Cargar datos en sistemas de almacenamiento como BigQuery, Cloud Storage o Data Lake.b'/xc2/xa0'Gestionar y optimizar el almacenamiento de datos en la nube.b'/xc2/xa0'Monitorear el rendimiento de los pipelines de datos y sistemas de almacenamiento.b'/xc2/xa0'Automatizar tareas y procesos complejos.b'/xc2/xa0'Desarrollar scripts.b'/xc2/xa0'Conectar y extraer datos de diversas fuentes (Bases de datos relacionales y no relacionales, sistemas de archivos, APIs y plataformas Saas) b'/xc2/xbf'Cub'/xc3/xa1'l es el desafb'/xc3/xad'o de la posicib'/xc3/xb3'n?b'/xc2/xa0' Tendrb'/xc3/xa1's la posibilidad de sumarte al medio digital de idioma espab'/xc3/xb1'ol mb'/xc3/xa1's leb'/xc3/xad'do a nivel mundial. Se encuentran armando la nueva estructura de datos y buscan ampliar el equipo para co-crear y aportar en conjunto. b'/xc2/xbf'Cub'/xc3/xa1'ndo y db'/xc3/xb3'nde trabajarb'/xc3/xa1's? Trabajarb'/xc3/xa1's en una modalidad 100% virtual desde cualquier parte de Argentina. El horario es de lunes a viernes de 9 a 18 hs. b'/xc2/xbf'Qub'/xc3/xa9' ofrecen? Home Office.Relacib'/xc3/xb3'n de dependencia directa.Plataforma de descuentos/beneficios.Prepaga para empleado/a y grupo familiar.Proyeccib'/xc3/xb3'n de carrera. b'/xc2/xbf'De qub'/xc3/xa9' fases consta el proceso de seleccib'/xc3/xb3'n?b'/xc2/xa0' Tendrb'/xc3/xa1's una primera entrevista con nuestra Recruiter, Mariana Herrero, para conocer tus experiencias laborales e intereses. Luego, con la empresa empleadora tendrb'/xc3/xa1's dos instancias de entrevista (Primero tb'/xc3/xa9'cnica y luego con RRHH) b'/xc2/xa0'
Ver aviso
Nueve de Julio-Buenos Aires (Buenos Aires)
Acerca de Cb'&'SSomos una empresa lb'/xc3/xad'der de tecnologb'/xc3/xad'a con mb'/xc3/xa1's de 38 ab'/xc3/xb1'os de presencia en el mercado IT. Brindamos soluciones a organizaciones que buscan aumentar su productividad y eficiencia construyendo relaciones de honestidad y transparencia tanto con nuestros clientes como con nuestro equipo de trabajo, con quienes compartimos y valoramos la pasib'/xc3/xb3'n por la tecnologb'/xc3/xad'a.b'/xc2/xa0'Skills Mandatorios: Experiencia comprobable en el desarrollo de jobs ETL y ELT, tanto en entornos on-premise como en la nube, preferentemente en cloud.Dominio de herramientas de ETL/ELT como NiFi, Glue, EMR o Informatica Cloud.Experiencia en la migracib'/xc3/xb3'n de procesos de datos desde entornos on-premise a la nube.Conocimientos en la ingesta y procesamiento de datos no estructurados en Data Lakes.Experiencia en el uso de Apache Spark o PySpark para el procesamiento distribuido de datos.Habilidades avanzadas en Python para el desarrollo de scripts y automatizaciones en el procesamiento de datos.Preferentemente con experiencia en AWS, aunque se valorarb'/xc3/xa1' conocimiento en otras plataformas cloud.Habilidades de resolucib'/xc3/xb3'n de problemas y capacidad para optimizar procesos de datos complejos.b'/xc2/xa0'Skills deseables: Certificaciones en AWS u otras plataformas de nube.Conocimientos en otras herramientas de integracib'/xc3/xb3'n y orquestacib'/xc3/xb3'n de datos.Experiencia en proyectos de migracib'/xc3/xb3'n a gran escala y optimizacib'/xc3/xb3'n de cargas de trabajo en la nube.Familiaridad con estrategias de gobernanza y seguridad de datos en entornos cloud.b'/xc2/xa0'Beneficios Revisiones salariales mb'/xc3/xad'nimas 4 veces al ab'/xc3/xb1'oEntrega de equipo de trabajoRegalo y db'/xc3/xad'a de cumpleab'/xc3/xb1'os libreReintegro por gastos de servicios (internet, luz) en compensacib'/xc3/xb3'n en el recibo de sueldoLicencia por paternidad extendidaDescuentos en universidades y cursos de idiomasPlataforma de capacitacib'/xc3/xb3'n online totalmente gratuita con certificacib'/xc3/xb3'n internacional.Cuponera de Cb'&'SCobertura mb'/xc3/xa9'dica (redireccib'/xc3/xb3'n del aporte)b'/xc2/xa1'Si buscas un lugar en donde puedas crecer profesionalmente y crees que tu perfil coincide con las caracterb'/xc3/xad'sticas que estamos buscando, no dudes en enviarnos tu CV!
Ver aviso
Rosario (Santa Fe)
For OZ, a leading digital solutions company, we're in search of a skilled and experienced Full-stack Azure Data Engineer eager to join our dynamic team. This role presents an exciting opportunity to play a pivotal role in designing, developing, and maintaining data pipelines and analytics solutions using the Azure cloud platform.Job Responsibilities:-Design, develop, and implement end-to-end data solutions using Azure cloud services.-Create data pipelines to ingest, process, and transform data from various sources into actionable insights.-Collaborate with cross-functional teams to understand data requirements and translate them into scalable solutions.-Optimize data workflows for high performance and reliability.-Implement security measures and data governance best practices to maintain data integrity.-Troubleshoot and resolve data-related issues promptly.Required Skills b'&' Experience:+ 3+ years of experience as a Data Engineer in an Azure cloud environment.+ Proficiency in Azure services such as Azure Data Factory, Azure Data Lakes, Azure Synapse, and PowerBI.+ Strong programming skills in Python, SQL, or Scala.+ Experience with data modeling, ETL processes, and data warehousing.+ Excellent problem-solving and analytical skills.+ Ability to work independently and collaboratively in a fast-paced environment.+ Effective communication skills with the ability to explain technical concepts to non-technical stakeholders.Preferred Qualifications:- Bachelorb'/xe2/x80/x99's degree in information science or related field.- Microsoft Azure certifications like Azure Data Engineer Associate.Benefits:* Work Equipment (PC and necessary equipment)* Discount Vouchers* Gifts on special occasions* Access to Udemy for taking courses* Bonuses for completed Official Certificationsb'/xc2/xa0'* Payment in USD* 100% Remote position- We offer competitive compensation, benefits, and ample opportunities for professional growth. Make a real impact in a dynamic environment where your contributions are valued. Join us and take your career to new heights!
Ver aviso
Nueve de Julio-Buenos Aires (Buenos Aires)
En Paradigma, compab'/xc3/xb1'b'/xc3/xad'a nacional lb'/xc3/xad'der en el mercado de la consultorb'/xc3/xad'a en Management, Procesos, Tecnologb'/xc3/xad'a y Personas, buscamos sumar perfiles que se desarrollen en el b'/xc3/xa1'rea digital de un importante cliente: b'/xc2/xa0' b'/xc2/xa0' Sr Data Engineers ETL b'/xc2/xa0' ALGUNAS RESPONSABILIDADES b'/xc2/xa0' Actividades de arquitectura de datos, procesos ETL, documentacib'/xc3/xb3'n de fuentes y modelado de datos sobre el Modelo Lb'/xc3/xb3'gico de industria financiero Teradata.Gestib'/xc3/xb3'n de la demanda e implementacib'/xc3/xb3'n de prb'/xc3/xa1'cticas de data b'&' analytics, data management y campaing management.Funciones de optimizacib'/xc3/xb3'n de la calidad de datos y procesos.Identificar puntos de dolor actuales y soluciones a desarrollar.Automatizacib'/xc3/xb3'n y orquestacib'/xc3/xb3'n del ciclo de vida de los datos y la implementacib'/xc3/xb3'n de campab'/xc3/xb1'as en diferentes canales.Integrar fuentes a la arquitectura de datos con diferentes formatos, estructurados y no estructurados.Desarrollar, mantener y optimizar modelos predictivos.Actividades de integracib'/xc3/xb3'n del analytics con las acciones comerciales optimizando los KPI's del negocio.Desarrollo y evolucib'/xc3/xb3'n de la capa dimensional y explotacib'/xc3/xb3'n de datos visual. b'/xc2/xa0' b'/xc2/xbf'QUE BUSCAMOS? Sumamos perfiles con muchas ganas de trabajar en equipo, con gran proactividad, apasionados por la tecnologb'/xc3/xad'a e innovacib'/xc3/xb3'n y ganas de investigar y compartir conocimiento.Graduado o estudiante Universitario en carreras orientadas a IT. (Deseable)Poseer experiencia de al menos 3 ab'/xc3/xb1'os en bases de datos y lenguaje SQL, habib'/xc3/xa9'ndose desempeb'/xc3/xb1'ado comob'/xc2/xa0'Desarrollador ETL, Arquitecto de datos, Data Engineer y/o Analista tb'/xc3/xa9'cnico funcional.Tener como mb'/xc3/xad'nimo 2 ab'/xc3/xb1'os de experiencia en Cloudera.Contar con conocimientos de Impala, Hive, Kudu, NiFi, Atlas.Conocimientos de Airflow, Python, BigQuery. (Deseable)Conocimientos de BI y Excel avanzados.Buen nivel de inglb'/xc3/xa9's.
Ver aviso
Nueve de Julio-Buenos Aires (Buenos Aires)
Somos IT Patagonia, un equipo que brinda soluciones en la industria del conocimiento con impacto positivo. Llevamos 30 ab'/xc3/xb1'os liderando procesos de evolucib'/xc3/xb3'n tecnolb'/xc3/xb3'gica brindando soluciones para potenciar el funcionamiento de las organizaciones y el desarrollo de las personas que las componen. Queremos ser una mejor empresa para el mundo y sabemos que los mejores resultados se alcanzan de manera colaborativa. Por eso crecemos, innovamos y evolucionamos juntos.Estamos reforzando el equipo y buscamos un Cloud Architect Sr que se sume a la comunidad de IT Patagonia. #BepatagonianDescripcib'/xc3/xb3'n del rol, responsabilidades y actividades:Responsable de la definicib'/xc3/xb3'n de arquitecturas de datos para soluciones digitales y el inicio de proyectos a nivel de los proyectos a los que da servicio.Revisib'/xc3/xb3'n de los procesos de ingesta.Definicib'/xc3/xb3'n de arquitectura sobre las etapas y ciclo de vida del dato.Implementar y mantener buenas prb'/xc3/xa1'cticas de seguridad y gobernanza de datos en la arquitectura, asegurando el cumplimiento de los estb'/xc3/xa1'ndares y regulaciones de privacidad.Implementar y mantener buenas prb'/xc3/xa1'cticas de integridad de los datos y rendimiento del sistema.Diseb'/xc3/xb1'o, optimizacib'/xc3/xb3'n y migracib'/xc3/xb3'n de bases de datos.Coordinacib'/xc3/xb3'n de tareas de data con los Data Engineer.Trabajar en forma coordinada con el Enterprise Datawarehouse Architect y con el AI Architect.Colaborar con los equipos de desarrollo y los stakeholders para comprender los requisitos y traducirlos en soluciones tb'/xc3/xa9'cnicas.Diseb'/xc3/xb1'ar y desarrollar arquitecturas de datos altamente escalables y de alto rendimiento en AWS, utilizando servicios como Amazon S3, Amazon Redshift,Amazon Athena, Amazon Glue, Amazon EMR, Amazon Kinesis, etc.Diseb'/xc3/xb1'ar e implementar flujos de datos eficientes y confiables, incluyendo la integracib'/xc3/xb3'n de sistemas de origen, transformacib'/xc3/xb3'n de datos y almacenamiento de datos.Investigar y evaluar nuevas tecnologb'/xc3/xad'as y herramientas en el campo de la gestib'/xc3/xb3'n y anb'/xc3/xa1'lisis de datos en la nube.DocumentarCapacidades/skills/calificaciones:Experiencia amplia en el diseb'/xc3/xb1'o de arquitectura de data y analb'/xc3/xad'tica, especialmente en el sector bancario.Experiencia demostrable en el diseb'/xc3/xb1'o y desarrollo de soluciones de datos en entornos basados en la nube, preferentemente utilizando AWS.Conocimiento profundo de los servicios de datos de AWS, como Amazon S3, Amazon Redshift, - Amazon Athena, Amazon Glue, Amazon EMR, Amazon Kinesis, etc.Experiencia en el diseb'/xc3/xb1'o e implementacib'/xc3/xb3'n de arquitecturas de datos escalables, seguras y de alto rendimiento en AWS.Amplia comprensib'/xc3/xb3'n de los principios de diseb'/xc3/xb1'o de bases de datos, modelado de datos y ETL (Extract, Transform, Load).Amplio conocimiento de soluciones y herramientas de analb'/xc3/xad'tica avanzada, tanto en la nube como on-premise.Conocimiento amplio de estb'/xc3/xa1'ndares y mejores prb'/xc3/xa1'cticas de arquitectura de datos / arquitectura empresarial.Excelentes habilidades de comunicacib'/xc3/xb3'n escrita y verbal.Nivel de inglb'/xc3/xa9's avanzado. (deseable)Certificacib'/xc3/xb3'n AWS Certified Data Specialist o equivalente en tecnologb'/xc3/xad'as de datos de AWS. (Deseable)Somos #empresaB, comprometidos con un sistema econb'/xc3/xb3'mico que beneficia al planeta y a todas las personas. Fomentamos una cultura inclusiva porque consideramos que la diversidad agrega valor a todo lo que hacemos. Queremos que todas las personas se sientan parte y generamos un espacio basado en la colaboracib'/xc3/xb3'n, la pluralidad, la diversidad y la innovacib'/xc3/xb3'n continua. Queremos ser protagonistas en una sociedad mb'/xc3/xa1's responsable, justa e integrada.b'/xc2/xa1'Sumate a esta experiencia!
Ver aviso
Nueve de Julio-Buenos Aires (Buenos Aires)
Welcome to Devlane! b'/xe2/x80/x8d' We are a dynamic software development company with a strong presence across Latin America. Currently, we specialize in offering staff augmentation services to clients worldwide, with a particular focus on North America. Joining our team offers you the opportunity to shine and make a significant impact on the projects you work on. Many of our clients are modern small to medium-sized businesses experiencing rapid growth, and they're eager to add core members like you to their teams. This environment ensures you'll stay up-to-date with the latest technology trends. At Devlane, our values are straightforward: we foster a collaborative environment and prioritize building long-lasting relationships where you can develop your skills as a software engineer and learn from your peers.b'/xc2/xa0' b'/xe2/x80/x8d' What's the role about? As a Machine Learning Engineer, you'll join a dedicated team focused on Real Estate. We're seeking candidates who are highly proficient in machine learning or data science and who are passionate about driving innovation and delivering exceptional results.b'/xc2/xa0' b'/xe2/x80/x8d' What do we require from you? ✔b'/xc2/xa0'Minimum 3 years of experience working as a Machine Learning Engineer. ✔b'/xc2/xa0'At least 3 years of experience with Python or R. ✔b'/xc2/xa0'Proficiency in working with Machine Learning Frameworks (TensorFlow, PyTorch). ✔b'/xc2/xa0'Experience with deep learning is a plus. b'/xe2/x80/x8d' Some of our Perks: ✔b'/xc2/xa0'Salary in USD. ✔b'/xc2/xa0'100% Remote ✔b'/xc2/xa0'25 days of Paid Time Off per year. ✔b'/xc2/xa0'8-hour workday, with flexible hours. ✔b'/xc2/xa0'Welcome kit from the brand. ✔b'/xc2/xa0'High-end hardware provided: laptop, mouse, b'&' headphones. ✔b'/xc2/xa0'English classes, virtual library and online courses. ✔b'/xc2/xa0'Contribution bonuses
Ver aviso
Nueve de Julio-Buenos Aires (Buenos Aires)
Beneficios: 100% remotoSalario en USDBono seguro de saludBono gastos de almuerzo e internetConvenio con Payoneer (No paga comisib'/xc3/xb3'n)17 db'/xc3/xad'as hb'/xc3/xa1'biles off al ab'/xc3/xb1'o (Pagos)Feriados localesLong term Job Qualifications / Skill Requirements: Bachelor's Degree (B.A.) or equivalent four-year degree in Computer Science, Software Engineering or related fieldExperience as Software Developer/SDET/Test Automation Engineer5-7 years of proven experience working in a Test Automation role or similar capacityExperience in automation of services/API software layers (e.g. UI, services, APIs, etc.) and debugging, and optimizing applications/ automated test scriptsAbility to programmatically test your own codeb'/xc2/xa0'Minimum understanding of design patterns, data structures, and layered architecture with knowledge of applying those aspects in test environmentsb'/xc2/xa0'Knowledge or experience in other languages/tools - VueJS, AngularJS, Protractor, Jasmine, JavaScript, JMeter, UFT/QTP, etc.Advanced programming skills in automation systems and databasesAccurate Knowledge of CI/CD technologies (e.g. Jenkins, Git, Maven, etc.)Detailed knowledge of application functions, bug fixing, and testing protocolsAbility to assess needs, influence, collaborate, deliver, and partner with the most senior levels in the organizationDemonstrated knowledge of testing best practices, version control practices, and defect management practicesStrong experience in stress testing scalable high-volume applications that handle millions of requests.Proficient with service automation and automation framework development.Ability to build collaborative, trustworthy relationships across functions and geographiesExperience with Agile/SCRUM methodology and how Testing functions with itProfessional experience using cybersecurity and open-source technologyExperience and ability to use coding languages (e.g. Python, Typescript, Selenium, webdriver,Java, JavaScript) and frameworks/systems (e.g. AngularJS, Git)Knowledge and ability to develop, maintain, and execute API automated tests.Outstanding collaboration and communication skills are essentialExperience developing secure software systems based upon industry specificationsExperience analyzing code for weaknesses and errors and presenting detailed plans to improve themExperience developing customized code for multiple projects simultaneouslyAbility to learn new languages and technologies is strongly preferred The Roleb'/xc2/xa0' Software Development Engineer in Test SDET is responsible for the design, development, and maintenance of automated test solutions, and for helping to deliver the quality and performance of our different software products. Incumbents of this position must possess extensive experience in programming languages as well as modern testing tools, should be able to write and support automated testing solutions for multi-tiered applications, and are hands-on and self-motivated engineers who can work collaboratively in a continuous integration environment. Proper and successful execution of this role will involve fluency in test automation frameworks, attention to detail, understanding of business processes, unwavering dedication to software quality, and working closely with Software Development Engineers to understand a complex domain and product.b'/xc2/xa0' What You'll Do As the Software Development Engineer in Test, you will be responsible for the following: Designs, develops, maintains, and troubleshoots automated suites of tests through continuous integration for value-added feedbackTakes ownership of deep learning about our software, its functions, how it fulfills our customers' needs, and how they use the productWorks with the engineering teams to derive testing requirements throughout the development cycle.Work alongside architecture, engineering, and design teams to assess for defects and discuss verification protocolsb'/xc2/xa0'Develop and implement ideas for automated software test proceduresb'/xc2/xa0'Interpret, build upon, and comply with company Testing strategy and standardsb'/xc2/xa0'Find, record, and track bugs, and perform thorough documentation of Test process activities with internal reporting and auditsb'/xc2/xa0'Develop new standards for production and design, with improvements as needed, and create testing protocols for implementation across all service linesOversee pre-production acceptance testing to ensure the high quality of a companyb'/xe2/x80/x99's services and productsAssesses and understands the flow of code and its interaction with various processesEvaluate specifications, requirements, and technical design documents to provide prompt and valuable feedbackDesign, develop, and execute automation scripts using open-source tools and implement software applicationsPursue continuing education on new solutions, technology, and skills.b'/xc2/xa0'Takes ownership of deep learning about our software, its functions, and how it fulfills our customers' needs and how they use the product Cultivate new business relationships, maintain existing business relationships with customers and partners Responsibilities / Duties / Tasks: Monitor risk-management procedures, and maintain and analyze problem logs and bug reports to identify and report recurring issues to management and product development.Build robust, scalable, and highb'/xe2/x80/x93'quality test automation solutions for functional, regression, and performance testing.Develop code for quality automation and ensure extensive unit test coverage of the codeMonitor/review debugging process resultsPerform reviews of automation code.Analyze and investigate product complaints or reported quality issues to ensure closure in accordance with company guidelines and external regulatory requirementsAnalyze production/service limitations against standards and recommend revisions ofspecifications where necessary.Troubleshoot the system and identify software application weaknesses and target areasLiaise with the technology and product departments in coordinating procedures to address any deficiencies.Monitor production quality performance to identify opportunities for improvement, and carry out maintenance of quality files, procedures, and work instructions for proper adherence to quality systems.Ability to give, receive, and implement feedback and constructive criticismb'/xc2/xa0'Have a positive and energetic attitude and make efforts to maintain/improve moraleBuild collaborative, trustworthy relationships across a range of styles, functions, geographies, and cultures to form networks within and outside the companyb'/xc2/xa0'Develop and maintain strong organizational astuteness and agilitySelf-directed, including: manages time, proactively seeks work opportunity, supports the department and software needs, proactively seeks and pulls work, delivers on daily projects tasks, communicates with team - has a strong sense of urgency and engagement of projects and timely delivery.Focuses on work while at work, stays engaged, attentive and proactive and eliminates distractions (cell phone, internet, long breaks, distractions, etc)Expand the capabilities of the framework to support the completion of automated tests against different testing environments and also develop automated component tests to validate component behavior.
Ver aviso
Nueve de Julio-Buenos Aires (Buenos Aires)
Somosb'/xc2/xa0'IT Patagonia, una empresa de servicios de tecnologb'/xc3/xad'a con mb'/xc3/xa1's de 35 ab'/xc3/xb1'os de experiencia en lab'/xc2/xa0'industria del conocimiento.Ofrecemos servicios integrales y el desarrollo de soluciones tecnolb'/xc3/xb3'gicasb'/xc2/xa0'innovadoras en la Argentina y la regib'/xc3/xb3'n. Impulsamos el desarrollo de nuestros clientes a travb'/xc3/xa9's delb'/xc2/xa0'desarrollo de software a medida, productos digitales y servicios de consultorb'/xc3/xad'a.Somos parte de una nueva forma de hacer negocios, comprometida con un sistema econb'/xc3/xb3'mico queb'/xc2/xa0'beneficia al planeta y a todas las personas. Nos certificamos como una de las Empresas B, pioneras enb'/xc2/xa0'Argentina y el mundo, y somos la 4ta mejor empresa para trabajar en el rubro Tecnologb'/xc3/xad'a, segb'/xc3/xba'n elb'/xc2/xa0'ranking de Great Place To Work en la categorb'/xc3/xad'a de empresas de entre 251 y 1000 colaboradores.Estamos reforzando el equipo y buscamos un Software Engineer SR, que se sumen a la comunidad de IT Patagonia.Buscamos un Software Engineer con experiencia en el desarrollo de microservicios. Este rol es esencial para construir, mantener y optimizar los servicios que permiten el manejo eficiente y escalable de nuestros datos en la nube.Responsabilidades:* Diseb'/xc3/xb1'ar, desarrollar y desplegar microservicios en la plataforma de datos, asegurando escalabilidad y alta disponibilidad.* Colaborar con el equipo de Data Engineering para integrar los microservicios con las infraestructuras de datos.* Gestionar y optimizar bases de datos, preferentemente Amazon Redshift, pero tambib'/xc3/xa9'n Teradata y SQL Server.* Utilizar herramientas de integracib'/xc3/xb3'n y despliegue continuo como Jenkins y OpenShift para automatizar los procesos de desarrollo y despliegue.* Desarrollar aplicaciones front-end utilizando React y JavaScript.* Implementar servicios backend con.NET,.NET Core, o Node.js.* Manipular y transformar datos utilizando formatos como JSON y Parquet.* Asegurar la calidad del cb'/xc3/xb3'digo mediante pruebas unitarias, integracib'/xc3/xb3'n continua, y revisiones de cb'/xc3/xb3'digo.Requisitos:* Experiencia comprobable en el desarrollo de microservicios, preferentemente en un entorno de datos o en la nube.* Conocimientos avanzados en bases de datos, especialmente Amazon Redshift, pero tambib'/xc3/xa9'n experiencia con Teradata y SQL Server.* Familiaridad con herramientas de integracib'/xc3/xb3'n y despliegue continuo como Jenkins y OpenShift o similares.* Sb'/xc3/xb3'lidos conocimientos en desarrollo front-end con React y JavaScript.* Experiencia en desarrollo backend utilizando.NET,.NET Core, o Node.js.* Conocimientos en manipulacib'/xc3/xb3'n de datos con formatos como JSON y Parquet o similares.* Capacidad para trabajar en entornos b'/xc3/xa1'giles y colaborar estrechamente con equipos multidisciplinarios.Habilidades adicionales valoradas:* Experiencia en la nube, especialmente en AWS.* Conocimientos en otras herramientas de orquestacib'/xc3/xb3'n y contenedores como Kubernetes o Docker.* Experiencia previa en proyectos de migracib'/xc3/xb3'n de datos o modernizacib'/xc3/xb3'n de aplicaciones.Ser Patagonian significa abrazar valores profundos, como la solidaridad, el trabajo en equipo, lab'/xc2/xa0'inclusib'/xc3/xb3'n, el compromiso y la innovacib'/xc3/xb3'n. Somos portadores de cb'/xc3/xb3'digos, no solo en nuestro software, sino en nuestro espb'/xc3/xad'ritu. Creamos tecnologb'/xc3/xad'a con valores arraigados a nuestra esencia.Somos mb'/xc3/xa1's que gente de tecnologb'/xc3/xad'a; somos arquitectos de un mundo mejor, guiados por nuestrob'/xc2/xa0'propio cb'/xc3/xb3'digo.b'/xc2/xa0'b'/xc2/xa1'Sumate a esta experiencia!
Ver aviso
Nueve de Julio-Buenos Aires (Buenos Aires)
b'/xe2/x80/xa2' Certified ServiceNow System Administrator;b'/xc2/xa0'b'/xe2/x80/xa2' Bachelorb'/xe2/x80/x99's degree in computer science or related fieldb'/xe2/x80/xa2' 7+ years of experience and strong working knowledge of ServiceNow platformb'/xe2/x80/xa2' 3+ years of experience with ServiceNow workflows or Flow Designerb'/xe2/x80/xa2' Experience configuring and implementing ServiceNow out-of-box application such asb'/xc2/xa0'ITSM/ITOM/HR/CSM/SPM/PA/APMb'/xe2/x80/xa2' 2+ years of experience with scripted REST APIsb'/xe2/x80/xa2' Experience educating internal or external customers in best practice designb'/xe2/x80/xa2' Experience migrating data into ServiceNow applicationb'/xe2/x80/xa2' Experience working with ServiceNow in a large enterpriseb'/xe2/x80/xa2' Familiarity working in an Agile environment (SCRUM methodologies).b'/xe2/x80/xa2' Experience working with Business Rules, Script Includes, Access Control Lists, Scheduled Job, UI Actions, Clientb'/xc2/xa0'Scripts, Catalog Client Scripts, UI Scripts, UI Policies and Catalog UI Policiesb'/xe2/x80/xa2' Integrated ServiceNow instance with 3rd party applicationb'/xe2/x80/xa2' Experience on adding additional functionalities within existing implemented integrationsb'/xe2/x80/xa2' Experience on Catalog Item, Record Producer, Order Guide, Workflow and Inbound Email Actions.b'/xe2/x80/xa2' Experience on Scheduled Job, Events and Email Notifications, Email Scripting, Email Templates.b'/xe2/x80/xa2' Excellent experience in ServiceNow Administration and Production supportb'/xe2/x80/xa2' Worked on transform maps, data sources, import set and different transform scripts for data loads andb'/xc2/xa0'managementb'/xe2/x80/xa2' Ability to work independently or with teamb'/xe2/x80/xa2' Demonstrate strong initiative and self-starter
Ver aviso
Nueve de Julio-Buenos Aires (Buenos Aires)
b'/xc2/xbf'Qub'/xc3/xa9' hace la compab'/xc3/xb1'b'/xc3/xad'a? Compab'/xc3/xb1'b'/xc3/xad'a nativa digital con presencia global de gran escala de ingenierb'/xc3/xad'a, diseb'/xc3/xb1'o e innovacib'/xc3/xb3'n, con sedes ubicadas en diferentes pab'/xc3/xad'ses de Amb'/xc3/xa9'rica, Asia y Europa. Cuenta con presencia en 18 pab'/xc3/xad'ses y con un equipo de mb'/xc3/xa1's de 20 mil profesionales que forman parte de nuevos desafb'/xc3/xad'os y proyectos de vanguardia. b'/xc2/xa0' b'/xc2/xbf'Qub'/xc3/xa9' necesitb'/xc3/xa1's para ser parte del equipo? A nivel personal: Esperamos muy buena predisposicib'/xc3/xb3'n al trabajo en equipo, afrontar desafb'/xc3/xad'os, autonomb'/xc3/xad'a y proactividad. A nivel tb'/xc3/xa9'cnico: Conocimiento y experiencia en: Azure Cloud: CLI, deployment and configuration of a wide variety of Azure IaaS + PaaS, Network Security Groups, App Gateways + WAF, Log Analytics/Insights, Identity and Access Management, Key Vault.Docker: construccib'/xc3/xb3'n de contenedores y prb'/xc3/xa1'cticas de seguridad - Artifactory (Azure Container Registry, JFrog).Kubernetes: conceptos bb'/xc3/xa1'sicos, cluster management + monitoring.Azure DevOps (ADO).Git + GitHub + integracib'/xc3/xb3'n con ADO.Scripting: bash, powershell, python, node JS.Ansible Tower (consumption).Contar con un nivel avanzado de inglb'/xc3/xa9's | Excluyente.Conocimientos en Kubernetes (autoescalado, contexto de seguridad); API ADO; APIGee; Grafana; Ansible Playbooks; Azure Data Factory: despliegue, integracib'/xc3/xb3'n GitHub/ADO | Deseable. b'/xc2/xa0' b'/xc2/xbf'Qub'/xc3/xa9' vas a hacer? Como DevOps Engineer, tendrb'/xc3/xa1's a tu cargo las siguientes responsabilidades: Ser encargado/a de los procesos de integracib'/xc3/xb3'n y entrega continua de los diferentes entornos y plataformas que tiene la empresa.Desarollar, apoyar e implementar los procesos, productos, servicios y herramientas necesarias para ejecutar y entregar las mejores prb'/xc3/xa1'cticas de DevOps.Administrar los procesos del ciclo de vida para aplicaciones, servicios y plataformas.Apoyar, colaborar y educar a los equipos de TI con las mejoras prb'/xc3/xa1'cticas de DevOps para lograr una mejor utilizacib'/xc3/xb3'n de las mismas.Proporcionar soporte avanzado para las herramientas de compilacib'/xc3/xb3'n y despliegue para mb'/xc3/xba'ltiples desarrollos. b'/xc2/xa0' b'/xc2/xbf'Cub'/xc3/xa1'ndo y db'/xc3/xb3'nde trabajarb'/xc3/xa1's? De Lunes a Viernes en una jornada flexible de 9 a 18 hs, desde cualquier lugar del pab'/xc3/xad's. b'/xc2/xa0' b'/xc2/xbf'Qub'/xc3/xa9' ofrecen? Sueldo Split (Posibilidad de Dolarizar un porcentaje del salario + Sueldo sujeto al valor del db'/xc3/xb3'lar).Contrato directo con la Empresa.100% remoto.Plataforma de cursos gratuitos.Licencia de paternidad / maternidad extendida.Descuentos en entidades educativas privadas.Tarjeta de descuentos: ropa, comida, viajes, etc.Inglb'/xc3/xa9's in Company.Plan de carrera interno en diferentes ramas IT.Proyectos multidisciplinarios. b'/xc2/xa0' b'/xc2/xbf'De qub'/xc3/xa9' fases consta el proceso de seleccib'/xc3/xb3'n?b'/xc2/xa0' Tendrb'/xc3/xa1's unab'/xc2/xa0'primera entrevista conb'/xc2/xa0'nuestrab'/xc2/xa0'Recruiter,b'/xc2/xa0'Aldana Alvarenga,b'/xc2/xa0'para conocer tus experiencias laborales e intereses. Luego, con la empresa empleadora tendrb'/xc3/xa1's 3 instancias. La primera una entrevista con el HR de la compab'/xc3/xb1'b'/xc3/xad'a para conocer mb'/xc3/xa1's sobre el desafb'/xc3/xad'o y screening en inglb'/xc3/xa9's, la segunda una evaluacib'/xc3/xb3'n tb'/xc3/xa9'cnica para conocer con profundidad tus conocimientos y por b'/xc3/xba'ltimo una instancia con el cliente.
Ver aviso
Nueve de Julio-Buenos Aires (Buenos Aires)
Progres SA is looking for a full-stack Software Engineer with hands-on experience on both backend b'&' frontend.b'/xc2/xa0'The candidate should have strong knowledge of Clojure, Java, or JavaScript, as well as be familiar with AWS cloud services.b'/xc2/xa0'5-7 years of proven experience working in a similar role.b'/xc2/xa0'Hands on experience developing microservices. Using Serverless framework is a huge plusAWS experience with services such as lambdas, S3, Rabbitmq, etc.b'/xc2/xa0'Deep understanding of ES6/Javascript and strong experience working with modern web frameworks such as VueJs and/or React. (VueJS, which we use, and Typescript are a plus).b'/xc2/xa0'Working knowledge of open-source databases and data stores. (Think MySQL, PostgreSQL, Memcache, Redis, ElasticSearch).b'/xc2/xa0'Experience designing and integrating RESTful APIs.b'/xc2/xa0'Knowledge of modern version control systems such as Git.b'/xc2/xa0'Advanced level of English is required.Contractor mode.Full time b'&' remote position.
Ver aviso
Nueve de Julio-Buenos Aires (Buenos Aires)
b'/xc2/xa1'Tenemos una oportunidad para vos!b'/xc2/xa0'En Experis Argentina nos encontramos evaluando candidatos para asumir como Quality Engineer para importante proyecto en una empresa tecnolb'/xc3/xb3'gica multinacional.b'/xc2/xa0'Serb'/xc3/xa1's responsable del diseb'/xc3/xb1'o y ejecucib'/xc3/xb3'n de las distintas pruebas tb'/xc3/xa9'cnicas, manejando arquitecturas y modelo de datos complejos que combinan diferentes tecnologb'/xc3/xad'as.Requisitos:Profesionales en sistemas, ingenierb'/xc3/xad'a, Administracib'/xc3/xb3'n de Empresas o afinesConocimiento del negocio bancario o financiero, sus servicios y la operacib'/xc3/xb3'n delos mismosConocimientos en al menos una herramientas tb'/xc3/xa9'cnicas de calidad tales como:Revision de cb'/xc3/xb3'digo estb'/xc3/xa1'tico: Sonarqube, Code Inspector,Pruebas de performance: Loadrunner, Jmeter,Enmascaramiento de datos TDM (Test Data Management)Automatizaciones: Postaman, BrowerStack, IgniteQuality Platformv (IQP), UFT, Selenium, Jenkins, Lisa (Services Virtualization),Service Now,Expolotacion de datos: SQL, Phyton, DB2 (mainframe), implementaciones y pasajes: Openshift, Serena ALM, Solman (SAP)Experiencia en equipos que trabajen con alguna de las siguientes metodologb'/xc3/xad'as marco DevSecOps, AIOps, Etapas STCL (software testing lifecycle), b'/xc3/xa1'giles, scrum waterfallNivel de inglb'/xc3/xa9's intermedio, valorando el uso tb'/xc3/xa9'cnico del mismob'/xc2/xa0'Horario de trabajo:b'/xc2/xa0' 9hs a 18hsLugar de trabajo: CABAModalidad hb'/xc3/xad'bridab'/xc2/xa0'BeneficiosBeneficios Experis (manpowergroup.com.ar)b'/xc2/xa0'En ManpowerGroup promovemos una cultura inclusiva y diversa basada en el respeto y en la igualdad de oportunidades.b'/xc2/xa0'[Ley 6471/2021 - Bb'/xc3/xba'squeda laboral equitativa: El empleador sb'/xc3/xb3'lo podrb'/xc3/xa1' solicitarle la informacib'/xc3/xb3'n estrictamente necesaria para el desempeb'/xc3/xb1'o en el trabajo que se ofrece.]b'/xc2/xa0'b'/xc2/xa0'Te damos algunas recomendaciones para corroborar la veracidad de nuestras bb'/xc3/xba'squedas: https://bit.ly/Recomendaciones-Avisos-Laborales b'/xc2/xa0'b'/xc2/xa0'
Ver aviso
Nueve de Julio-Buenos Aires (Buenos Aires)
En Experis Argentina nos encontramos en la bb'/xc3/xba'squeda de un QE para importante Compab'/xc3/xb1'b'/xc3/xad'a del rubro de Telecomunicaciones.Condiciones de contratacib'/xc3/xb3'n:Lugar de trabajo: Caba, Microcentro - CaballitoJornada de trabajo: Full Time, Lunes a Viernes 9-18Modalidad de trabajo: Hibrido (4 db'/xc3/xad'as remoto y 1 db'/xc3/xad'a presencial)Contrato: Bajo relacib'/xc3/xb3'n de dependencia con Experis, por tiempo indeterminado.Salario: A convenir + beneficios + Prepaga + plataforma gratuita de capacitaciones + descuento 45% en Educacib'/xc3/xb3'nIT + 75% en Open English + 20% en instituto de idiomas CUI + 50% Megatlon + Descuentos Cuponstar y supermecados, entre otros.Conocimientos / Skills tb'/xc3/xa9'cnicos: Conocimiento del negocio bancario o financiero, sus servicios y la operacib'/xc3/xb3'n de los mismosConocimientos en al menos unas herramientas tb'/xc3/xa9'cnicas de calidad tales como:Revisib'/xc3/xb3'n de cb'/xc3/xb3'digo estb'/xc3/xa1'tico: Sonarqube, Code InspectorPruebas de rendimiento: Loadrunner, Jmeter,Enmascaramiento de datos TDM (Test Data Management).Automatizaciones: Postaman, BrowerStack, IgniteQuality Platformv (IQP), UFT, Selenium, Jenkins, Lisa (Services Virtualization).Service Now.Expolotacion de datos: SQL, Phyton, DB2 (mainframe), implementaciones y pasajes: Openshift, Serena ALM, Solman (SAP)Experiencia en equipos que trabajan con alguna de las siguientes metodologb'/xc3/xad'as marco DevSecOps, AIOps, Etapas STCL (software testing) ciclo vital), b'/xc3/xa1'giles, scrum falls.Nivel de inglb'/xc3/xa9's intermedio, valorando el uso tb'/xc3/xa9'cnico del mismo.Responsabilidades del cargo: Amplios conocimientos tb'/xc3/xa9'cnicos, enfocada en el diseb'/xc3/xb1'o y ejecucib'/xc3/xb3'n de las distintas pruebas tb'/xc3/xa9'cnicas, manejando arquitecturas y modelo de datos complejos que combinan diferentes tecnologb'/xc3/xad'as, a travb'/xc3/xa9's del uso de herramientas que soportan el modelo operativob'
Ver aviso

Avisos gratis para comprar y vender en Argentina | CLASF - copyright ©2025 www.clasf.com.ar.