-
loading
Solo con imagen

Data engineer sr


Listado top ventas data engineer sr

Nueve de Julio-Buenos Aires (Buenos Aires)
Somosb'/xc2/xa0'IT Patagonia, una empresa de servicios de tecnologb'/xc3/xad'a con mb'/xc3/xa1's de 35 ab'/xc3/xb1'os de experiencia en lab'/xc2/xa0'industria del conocimiento.Ofrecemos servicios integrales y el desarrollo de soluciones tecnolb'/xc3/xb3'gicasb'/xc2/xa0'innovadoras en la Argentina y la regib'/xc3/xb3'n. Impulsamos el desarrollo de nuestros clientes a travb'/xc3/xa9's delb'/xc2/xa0'desarrollo de software a medida, productos digitales y servicios de consultorb'/xc3/xad'a.Somos parte de una nueva forma de hacer negocios, comprometida con un sistema econb'/xc3/xb3'mico queb'/xc2/xa0'beneficia al planeta y a todas las personas.b'/xc2/xa0'Nos certificamos como una de las Empresas B, pioneras enb'/xc2/xa0'Argentina y el mundo, yb'/xc2/xa0'somos la 4ta mejor empresa para trabajar en el rubro Tecnologb'/xc3/xad'a, segb'/xc3/xba'n elb'/xc2/xa0'ranking de Great Place To Workb'/xc2/xa0'en la categorb'/xc3/xad'a de empresas de entre 251 y 1000 colaboradores.Estamos reforzando el equipo y buscamos un Data Engineer SR, que se sumen a la comunidad de IT Patagonia.Principales desafb'/xc3/xad'os de la posicib'/xc3/xb3'n:* Analizar requerimientos e identificar en forma cierta el nivel de complejidad de los desarrollos a realizar, generando las estimaciones correspondientes.* Realizar anb'/xc3/xa1'lisis y diseb'/xc3/xb1'o de los requerimientos, asegurando consistencia con el requerimiento y siguiendo los estb'/xc3/xa1'ndares de documentacib'/xc3/xb3'n definidos.* Desarrollar y validar la consistencia de los modelos para la recopilacib'/xc3/xb3'n y el anb'/xc3/xa1'lisis de los datos.* Desarrollar funciones mediante el uso de herramientas de extraccib'/xc3/xb3'n, transformacib'/xc3/xb3'n y carga de datos.* Crear modelos y planes de prueba, permitiendo su re-utilizacib'/xc3/xb3'n en sus distintas fases, ademb'/xc3/xa1's de las pruebas tb'/xc3/xa9'cnicas, funcionales y de performance.* Identificar y documentar posibles mejoras a los diseb'/xc3/xb1'os y modelos desarrollados.* Identificar y resolver cuestiones que afectan a su trabajo y al avance de los proyectos* Colaborar en el desarrollo del enfoque y plan de pruebas de los modelos y funciones, mantenib'/xc3/xa9'ndolos actualizados.* Ayudar a identificar y documentar el impacto y esfuerzo asociado a los requerimientos que representen cambios en los desarrollos realizados.Conocimientos tb'/xc3/xa9'cnicos requeridos (excluyentes)* Informatica Powercenter programming for Data Warehouse.* Informatica PowerExchange* SQL* Shell b'&' PowerShell ScriptingSer Patagonian significa abrazar valores profundos, como la solidaridad, el trabajo en equipo, lab'/xc2/xa0'inclusib'/xc3/xb3'n, el compromiso y la innovacib'/xc3/xb3'n. Somos portadores de cb'/xc3/xb3'digos, no solo en nuestro software, sino en nuestro espb'/xc3/xad'ritu. Creamos tecnologb'/xc3/xad'a con valores arraigados a nuestra esencia.Somos mb'/xc3/xa1's que gente de tecnologb'/xc3/xad'a; somos arquitectos de un mundo mejor, guiados por nuestrob'/xc2/xa0'propio cb'/xc3/xb3'digo.b'/xc2/xa0'b'/xc2/xa1'Sumate a esta experiencia!
Ver aviso
Nueve de Julio-Buenos Aires (Buenos Aires)
Data Engineer Ssr / Sr (full time, remoto) - Freelance a largo plazob'/xc2/xa0'Nos encontramos en la bb'/xc3/xba'squeda de un Data Engineer con +2 ab'/xc3/xb1'os de experiencia en el b'/xc3/xa1'rea.Requisitos excluyentes:Experiencia trabajando con AWS como plataforma Cloud (deseable:b'/xc2/xa0'Redshift,b'/xc2/xa0'Glue,b'/xc2/xa0'Lambda).b'/xc2/xa0'Lenguaje requerido: Python.b'/xc2/xa0'Inglb'/xc3/xa9's deseable.b'/xc2/xa0'Condiciones Contratacib'/xc3/xb3'n:b'/xc2/xa0' Fecha de inicio: inmediata.Duracib'/xc3/xb3'n: posicib'/xc3/xb3'n permanente.Modalidad: full time y 100% remoto (si sos de Buenos Aires, con posibilidad de asistir alguna vez a las oficinas de CABA).b'/xc2/xa0'Freelance a travb'/xc3/xa9's nuestro (de la consultora).b'/xc2/xa0'Es exclusivo para residentes en Argentina.Si te interesa esta bb'/xc3/xba'squeda, por favor segub'/xc3/xad' el enlace para postularte.b'/xc2/xa0'Muchas gracias!
Ver aviso
Nueve de Julio-Buenos Aires (Buenos Aires)
En Ecosistemas nos encontramos en la bb'/xc3/xba'squeda de un Data Engineer para sumar al equipo de uno de nuestros clientes del sector financiero.b'/xc2/xa0'Proyecto: cubrir la necesidad de desarrollos de procesos de ingestas de datos desde entorno on-prem hacia entorno cloud.b'/xc2/xbf'Qub'/xc3/xa9' buscamos?Estudiantes universitarios o graduados en Ing. Sistemas/Informb'/xc3/xa1'tica, Lic. Ciencias de la Computacib'/xc3/xb3'n/Ciencia de Datos o afines.Experiencia desarrollando data pipelines con Python.Experiencia en AWS (S3, Datasync, Step Functions, EMR, Glue, Athena).Experiencia trabajando con GitConocimientos de bases NoSQL (MongoDB/DocumentDB, DynamoDB)Conocimientos en Control-Mb'/xc2/xa0'Se valorarb'/xc3/xa1':Conocimientos de GitlabConocimientos de TerraformConocimientos de metodologb'/xc3/xad'as b'/xc3/xa1'giles.Conocimientos de la industria financiera.Dominio de inglb'/xc3/xa9's tb'/xc3/xa9'cnico.Modalidad: Hibrido (1 o 2 veces por semana)Lunes a viernes de 9 a 18hsb'/xc2/xa0'Beneficios:Prepaga de primer nivel, plataforma de capacitaciones interna, descuentos en distintas marcas, vacaciones flexibles, regalos en fechas especiales, entre otros.
Ver aviso
Colón-Buenos Aires (Buenos Aires)
Acerca de Cb'&'S Somos una empresa de mb'/xc3/xa1's de 160 profesionales, consolidada hace 38 ab'/xc3/xb1'os en el mercado. Nuestro propb'/xc3/xb3'sito es garantizar la satisfaccib'/xc3/xb3'n de nuestros clientes; para ello, ofrecemos servicios de Desarrollo de Software, Talent Outsourcing y Consultorb'/xc3/xad'a IT. Contamos con certificacib'/xc3/xb3'n ISO 9001 y sedes en Buenos Aires, Argentina y Santiago de Chile. b'/xc2/xa0' Desde Cb'&'S estamos buscando candidatos/as para llenar la posicib'/xc3/xb3'n deb'/xc2/xa0'Data Engineer b'/xe2/x80/x93' Semi Senior/Senior,b'/xc2/xa0'para proyecto de importante banco privado. b'/xc2/xa0' b'/xc2/xa0' Modalidad de trabajo Esquema remoto (posibilidad de asistencia eventual a oficinas)Horario full time (de 09 a 18 hs) b'/xc2/xa0' b'/xc2/xa0' Descripcib'/xc3/xb3'n del puesto Desarrollar procesos para poblar las estructuras de datos dentro de las Arquitecturas definidas, generando la ingesta y documentacib'/xc3/xb3'n asociada entre los orb'/xc3/xad'genes de datos y el destino, considerando: 1. La creacib'/xc3/xb3'n de arquitecturas de datos para bases de datos y almacenamientos de datos (por ejemplo, diseb'/xc3/xb1'ar y especificar la estructura general de la base de datos/almacenamiento de datos con base en los requisitos funcionales y tb'/xc3/xa9'cnicos) 2. El desarrollo de modelos lb'/xc3/xb3'gicos y fb'/xc3/xad'sicos de datos 3. El desarrollo de estrategias para la adquisicib'/xc3/xb3'n de datos, recuperacib'/xc3/xb3'n de archivos y ejecucib'/xc3/xb3'n de bases de datos b'/xc2/xa0' b'/xc2/xa0' Responsabilidades Desarrollar ingestas de datos a partir de diferentes fuentes orb'/xc3/xad'genes, sean estos internos o externos.Desarrollo de procesos de ETL.Disponibilidad de los datos en distintos formatos.Realizacib'/xc3/xb3'n de pruebas y documentacib'/xc3/xb3'n.Integracib'/xc3/xb3'n de soluciones a procesos de negocio.Automatizacib'/xc3/xb3'n y mb'/xc3/xa9'todos de seguimiento.Actualizacib'/xc3/xb3'n/investigacib'/xc3/xb3'n de nuevas herramientas.Modelado de datos lb'/xc3/xb3'gicos y fb'/xc3/xad'sicosModelado de procesos de negocioDefinir y ejecutar la transformacib'/xc3/xb3'n de Datos b'/xc2/xa0'Dar soporte al Data Hub y los DataOps en el manejo de la plataforma b'/xc2/xa0' b'/xc2/xa0' Skills mandatorios b'/xc2/xa0'Entre 2 y 5 ab'/xc3/xb1'os de experiencia previa como Data Engineer.Experiencia diseb'/xc3/xb1'ando ETLs y Datalakes on cloud o plataformas de Big DataExperiencia en servicios y plataformas para datos Cloud AzureExperiencia en performance y tuning en Bases de DatosExperiencia en IC / DC: Azure Devops - Azure Repos b'/xe2/x80/x93' Github.Azure Databricks, Azure DataFactory, Azure Event HubsPython b'/xe2/x80/x93' R para ingesta de datosPyspark, PandasAPIs para disponibilizar y consumir datosBases de datos SQL y NoSQLModelado de Datos (Data Warehouse / Data Lake)Data StorageHerramientas de visualizacib'/xc3/xb3'n (Power BI).T-SQLPL/SQLMetodologb'/xc3/xad'as b'/xc3/xa1'giles. b'/xc2/xa0' b'/xc2/xa0' Skills valorados (deseables) PytestTerraform b'/xc2/xa0' b'/xc2/xa0' b'/xc2/xbf'Qub'/xc3/xa9' ofrecemos? Cobertura mb'/xc3/xa9'dica (Redireccib'/xc3/xb3'n de aporte)Cuatro revisiones anuales de sueldo.Descuentos en universidades, centros educativos, y mb'/xc3/xa1's.Bono de cumpleab'/xc3/xb1'os.Bono para internet y gastos del hogar.Equipo para que puedas trabajar desde tu casa.Kit de bienvenida al ingresar
Ver aviso
Nueve de Julio-Buenos Aires (Buenos Aires)
b'/xc2/xbf'Qub'/xc3/xa9' hace la compab'/xc3/xb1'b'/xc3/xad'a? Empresa de valores de la bolsa IT y de negociacib'/xc3/xb3'n de moneda extranjera mb'/xc3/xa1's importante de la Argentina con mb'/xc3/xa1's de 250 clientes. Brinda una plataforma para la concertacib'/xc3/xb3'n y registracib'/xc3/xb3'n de todas las operaciones, ofreciendo informacib'/xc3/xb3'n precisa sobre los precios y volb'/xc3/xba'menes de mercado en tiempo y forma. b'/xc2/xbf'Qub'/xc3/xa9' necesitb'/xc3/xa1's para ser parte del equipo? A nivel personal: Enfoque proactivo y capacidad de autogestib'/xc3/xb3'n en proyectos.Fuerte orientacib'/xc3/xb3'n a la solucib'/xc3/xb3'n de problemas y atencib'/xc3/xb3'n al detalle.Habilidades de comunicacib'/xc3/xb3'n para colaborar con equipos multifuncionales.Capacidad de trabajo autb'/xc3/xb3'nomo y mente analb'/xc3/xad'tica orientada a la resolucib'/xc3/xb3'n de problemas.Alta motivacib'/xc3/xb3'n y compromiso con la calidad en la entrega de proyectos. A nivel tb'/xc3/xa9'cnico: +2 ab'/xc3/xb1'os de experiencia en roles de data engineer e infraestructura de datos.Experiencia en ensamblaje y manipulacib'/xc3/xb3'n de grandes volb'/xc3/xba'menes de datos para soluciones complejas.Conocimientos avanzados en diseb'/xc3/xb1'o y administracib'/xc3/xb3'n de data warehouses y data lakes.Dominio en el desarrollo de ETLs.Conocimientos de soluciones en la nube (Azure preferentemente).Conocimientos en Microsoft Power BI.Conocimientos en Microsoft Fabric para explotacib'/xc3/xb3'n de datos (deseable).Si contb'/xc3/xa1's con experiencia en proyectos de IA para anb'/xc3/xa1'lisis avanzado o implementacib'/xc3/xb3'n de IA generativa, es un plus! b'/xc2/xbf'Qub'/xc3/xa9' vas a hacer? Diseb'/xc3/xb1'ar, ensamblar y optimizar conjuntos de datos grandes y complejos para cumplir con los requisitos de negocio y asegurar la calidad y seguridad de los datos.Crear soluciones avanzadas de explotacib'/xc3/xb3'n de datos, como data warehouses y data lakes, para soportar anb'/xc3/xa1'lisis de alto rendimiento y reportes de negocio.Definir modelos de datos adecuados para cada solucib'/xc3/xb3'n, asegurando su alineacib'/xc3/xb3'n con los objetivos empresariales.Desarrollar y gestionar ETLs.Colaborar en implementaciones y anb'/xc3/xa1'lisis de datos con Microsoft Power BI o Microsoft Fabric para optimizar la visualizacib'/xc3/xb3'n de datos y la toma de decisiones. b'/xc2/xbf'Cub'/xc3/xa1'l es el desafb'/xc3/xad'o de la posicib'/xc3/xb3'n?b'/xc2/xa0' La persona seleccionada serb'/xc3/xa1' responsable de diseb'/xc3/xb1'ar y crear el Gobierno de Datos de la empresa, ademb'/xc3/xa1's de ensamblar soluciones de datos robustas y escalables que cumplan con los requisitos empresariales tanto funcionales como no funcionales. Tambib'/xc3/xa9'n tendrb'/xc3/xa1's la oportunidad de implementar soluciones en la nube y herramientas de gestib'/xc3/xb3'n de Big Data para acompab'/xc3/xb1'ar a la empresa en su transformacib'/xc3/xb3'n digital. b'/xc2/xbf'Con quib'/xc3/xa9'n trabajarb'/xc3/xa1's?b'/xc2/xa0' La empresa estb'/xc3/xa1' participando de una fusib'/xc3/xb3'n con otros mercados, por lo que el equipo de Data se encuentra en formacib'/xc3/xb3'n y expansib'/xc3/xb3'n. Tendrb'/xc3/xa1's la oportunidad de ser el referente central del sector y contarb'/xc3/xa1's con apoyo de consultoras. b'/xc2/xbf'Con qub'/xc3/xa9' herramientas trabajarb'/xc3/xa1's? Las herramientas con las que se trabajarb'/xc3/xa1' serb'/xc3/xa1'n: Microsoft Power BI o Microsoft Fabric, entre otros. b'/xc2/xbf'Cub'/xc3/xa1'ndo y db'/xc3/xb3'nde trabajarb'/xc3/xa1's? Trabajarb'/xc3/xa1's en una modalidad hb'/xc3/xad'brida, asistiendo 2 o 3 veces por semana a las oficinas y el resto de los db'/xc3/xad'as en esquema HO. El horario es de lunes a viernes de 10:00 a 18:00 hs. b'/xc2/xbf'Qub'/xc3/xa9' ofrecen? Relacib'/xc3/xb3'n de dependencia directa.14 db'/xc3/xad'as hb'/xc3/xa1'biles de vacaciones.Prepaga para empleado/a y grupo familiar.Clases de inglb'/xc3/xa9's.Reintegro celular e internet.5 db'/xc3/xad'as anuales de licencia extendida.Home Office.Db'/xc3/xad'a de cumpleab'/xc3/xb1'os.Capacitaciones.Gympass.Almuerzo cubierto en las oficinas. b'/xc2/xbf'De qub'/xc3/xa9' fases consta el proceso de seleccib'/xc3/xb3'n?b'/xc2/xa0' Tendrb'/xc3/xa1's una primera entrevista con nuestra Recruiter, Carla Carrizo, para conocer tus experiencias laborales e intereses. Luego, con la empresa empleadora tendrb'/xc3/xa1's dos instancias.
Ver aviso
Córdoba (Córdoba)
Buscamos un Data Engineer con experiencia con GCP con muchas ganas de continuar creciendo y aportando todo su potencial en un equipo de trabajo excepcional.b'/xc2/xa0'Funciones principales:- Desarrollo y mantenimiento de pipelines de datos- Modelado de datos en Data Warehouse- Orquestacion de procesos- Consumo de APIs- Optimizacion de consultas SQL- Monitoreo de procesosHerramientas/Tecnologb'/xc3/xad'as:- Google Cloud Platform- BigQuery- Cloud Functions- Cloud Storage- Data Fusion- Composer/Airflow- PubSub- Cloud Monitoring- Python- SQLCondiciones de la vacante:- 100% remoto (podb'/xc3/xa9's residir en cualquier parte de Argentina)- Obra social prepaga- Excelente clima y oportunidades de crecimiento profesional-b'/xc2/xa0' y mb'/xc3/xa1's!
Ver aviso
Nueve de Julio-Buenos Aires (Buenos Aires)
Descripcib'/xc3/xb3'n del Puesto:Desde Cb'&'S, buscamos un b'/xe2/x80/x9c'DATA ENGINEER b'/xe2/x80/x93' SENIOR/ESPECIALISTAb'/xe2/x80/x9d' con amplia experiencia comprobable en el desarrollo de jobs ETL y ELT en entornos on-premise y en la nube, preferentemente en cloud.El candidato ideal tendrb'/xc3/xa1' habilidades avanzadas en Python, experiencia en la migracib'/xc3/xb3'n de procesos de datos y un sb'/xc3/xb3'lido dominio de herramientas de ETL/ELT como NiFi, Glue, EMR o Informatica Cloud.b'/xc2/xa0'Responsabilidades:Desarrollar y optimizar procesos de ETL/ELT en diversos entornos.Migrar procesos de datos desde entornos on-premise a la nube.Ingesta y procesamiento de datos no estructurados en Data Lakes.Utilizar Apache Spark o PySpark para el procesamiento distribuido de datos.Automatizar procesos de datos mediante scripts en Python.b'/xc2/xa0'Requisitos Mandatorios: Experiencia en herramientas de ETL/ELT: NiFi, Glue, EMR o Informatica Cloud.Conocimientos en el uso de Apache Spark o PySpark.Habilidades avanzadas en Python.Preferiblemente experiencia en AWS; se valorarb'/xc3/xa1' conocimiento en otras plataformas cloud.Capacidad para resolver problemas y optimizar procesos de datos complejos.b'/xc2/xa0'Skills b'/xc2/xa0'Deseables/Valoradas: Certificaciones en AWS u otras plataformas de nube.Experiencia en proyectos de migracib'/xc3/xb3'n a gran escala y optimizacib'/xc3/xb3'n de cargas de trabajo en la nube.Familiaridad con estrategias de gobernanza y seguridad de datos en entornos cloud.b'/xc2/xa0'Modalidad de trabajo: 100% Remoto (a excepcib'/xc3/xb3'n de algunas ceremonias presenciales ocasionales - CABA)9 a 18 hs.En relacib'/xc3/xb3'n de dependencia con Cb'&'S.b'/xc2/xa0'Beneficios: Revisiones salariales mb'/xc3/xad'nimas 4 veces al ab'/xc3/xb1'o.Licencia por paternidad extendida.Reintegro por gastos en guarderb'/xc3/xad'a.Descuentos en universidades y cursos de idiomas.Plataforma de capacitacib'/xc3/xb3'n online totalmente gratuita con certificacib'/xc3/xb3'n internacional.Reintegro por gastos (luz e internet) en compensacib'/xc3/xb3'n en el recibo de sueldo.Regalo y db'/xc3/xad'a de cumpleab'/xc3/xb1'os libre.Entrega de equipo de trabajo.Cuponera de Cb'&'S con descuentos en gastronomb'/xc3/xad'a, indumentaria y cursos acadb'/xc3/xa9'micos con certificacib'/xc3/xb3'n internacional.Plan de obra social individual a travb'/xc3/xa9's del redireccionamiento de aportes estipulado por ley, ya sea una obra social que vos tengas y quieras mantener, o una que te podamos brindar nosotros
Ver aviso
Nueve de Julio-Buenos Aires (Buenos Aires)
b'/xc2/xbf'Qub'/xc3/xa9' hace la compab'/xc3/xb1'b'/xc3/xad'a? Compab'/xc3/xb1'b'/xc3/xad'a nativa digital con presencia global de gran escala de ingenierb'/xc3/xad'a, diseb'/xc3/xb1'o e innovacib'/xc3/xb3'n, con sedes ubicadas en 18 pab'/xc3/xad'ses entre Amb'/xc3/xa9'rica, Asia y Europa. Cuenta con un equipo de mb'/xc3/xa1's de 20 mil profesionales que forman parte de nuevos desafb'/xc3/xad'os y proyectos de vanguardia. b'/xc2/xbf'Qub'/xc3/xa9' necesitb'/xc3/xa1's para ser parte del equipo? A nivel personal: Ser flexible y estar orientado/a a objetivos.Tener imaginacib'/xc3/xb3'n y amar la innovacib'/xc3/xb3'n.Capacidad analb'/xc3/xad'tica de alto rendimiento.Disfrutar de la resolucib'/xc3/xb3'n de problemas.Habilidades de liderazgo. A nivel tb'/xc3/xa9'cnico: Experiencia de 5 ab'/xc3/xb1'os o mb'/xc3/xa1's trabajando como Data Engineer.Experiencia en Azure | AWS | GCP.Experiencia avanzada en Spark.Manejo de Databricks.Conocimientos y experiencias en Lenguajes de programacib'/xc3/xb3'n.Contar con un nivel avanzado de inglb'/xc3/xa9's | Excluyente.Experiencia con bases de datos SQL y NoSQL.Se valorarb'/xc3/xa1' experiencia en DataLakes.Conocimientos y/o experiencia en procesamiento de datos en tiempo real con tecnologb'/xc3/xad'a de Streaming (Kafka, Kinesis, Pubsub,) es un plus. b'/xc2/xa0' b'/xc2/xbf'Qub'/xc3/xa9' vas a hacer? Diseb'/xc3/xb1'ar, construir y gestionar las plataformas de datos y los conductos de datos necesarios para la extraccib'/xc3/xb3'n,transformacib'/xc3/xb3'n y carga b'/xc3/xb3'ptimas de datos de diversas fuentes.Trabajar con las partes interesadas para ayudar con las necesidades relacionadas con los datos.Crear productos de datos para satisfacer las necesidades de mb'/xc3/xba'ltiples consumidores.Realizar tareas complejas de anb'/xc3/xa1'lisis y modelado de datos.Desarrollar e implementar actividades de calidad, perfilado y limpieza de datos. b'/xc2/xbf'Cub'/xc3/xa1'ndo y db'/xc3/xb3'nde trabajarb'/xc3/xa1's? Trabajarb'/xc3/xa1's bajo un esquema 100% remoto desde cualquier parte del pab'/xc3/xad's. El horario es de lunes a viernes de 9 a 18 hs. b'/xc2/xbf'Con quib'/xc3/xa9'n trabajarb'/xc3/xa1's? Si te sumb'/xc3/xa1's a este desafb'/xc3/xad'o formarb'/xc3/xa1's parte de uno de los estudios mb'/xc3/xa1's grandes e importantes de la empresa: el b'
Ver aviso
Nueve de Julio-Buenos Aires (Buenos Aires)
b'/xc2/xbf'Qub'/xc3/xa9' hace la compab'/xc3/xb1'b'/xc3/xad'a? Compab'/xc3/xb1'b'/xc3/xad'a nativa digital con presencia global de gran escalab'/xc2/xa0'de ingenierb'/xc3/xad'a, diseb'/xc3/xb1'o e innovacib'/xc3/xb3'n, con sedes ubicadas en 18 pab'/xc3/xad'ses entre Amb'/xc3/xa9'rica, Asia y Europa. Cuenta con un equipo de mb'/xc3/xa1's de 20 mil profesionales que forman parte de nuevos desafb'/xc3/xad'os y proyectos de vanguardia. b'/xc2/xbf'Qub'/xc3/xa9' necesitb'/xc3/xa1's para ser parte del equipo? A nivel personal: Ser flexible y estar orientado/a a objetivos.Tener imaginacib'/xc3/xb3'n y amar la innovacib'/xc3/xb3'n.Capacidad analb'/xc3/xad'tica de alto rendimiento.Disfrutar de la resolucib'/xc3/xb3'n de problemas.Habilidades de liderazgo. A nivel tb'/xc3/xa9'cnico: Experiencia de 5 ab'/xc3/xb1'os o mb'/xc3/xa1's trabajando como Data Engineer.Experiencia en Azure | AWS | GCP.Experiencia avanzada en Spark.Manejo de Databricks.Conocimientos y experiencias en Lenguajes de programacib'/xc3/xb3'n.Contar con unb'/xc2/xa0'nivel avanzado de inglb'/xc3/xa9's | Excluyente.Experiencia conb'/xc2/xa0'bases de datos SQL y NoSQL.Se valorarb'/xc3/xa1' experiencia en DataLakes.Conocimientos y/o experiencia en procesamiento de datos en tiempo real con tecnologb'/xc3/xad'a de Streaming (Kafka, Kinesis, Pubsub,) es un plus.b'/xc2/xa0' b'/xc2/xbf'Qub'/xc3/xa9' vas a hacer? Diseb'/xc3/xb1'ar, construir y gestionar las plataformas de datos y los conductos de datos necesarios para la extraccib'/xc3/xb3'n,transformacib'/xc3/xb3'n y carga b'/xc3/xb3'ptimas de datos de diversas fuentes.Trabajar con las partes interesadas para ayudar con las necesidades relacionadas con los datos.Crear productos de datos para satisfacer las necesidades de mb'/xc3/xba'ltiples consumidores.Realizar tareas complejas de anb'/xc3/xa1'lisis y modelado de datos.Desarrollar e implementar actividades de calidad, perfilado y limpieza de datos. b'/xc2/xbf'Cub'/xc3/xa1'ndo y db'/xc3/xb3'nde trabajarb'/xc3/xa1's? Trabajarb'/xc3/xa1's bajo un esquemab'/xc2/xa0'100% remoto desde cualquier parte del pab'/xc3/xad's.b'/xc2/xa0'El horario es deb'/xc2/xa0'lunes a viernes de 9 a 18 hs. b'/xc2/xbf'Con quib'/xc3/xa9'n trabajarb'/xc3/xa1's? Si te sumb'/xc3/xa1's a este desafb'/xc3/xad'o formarb'/xc3/xa1's parte de uno de los estudios mb'/xc3/xa1's grandes e importantes de la empresa: elb'/xc2/xa0'b'/xc2/xab'Studio de Datab'/xc2/xbb', junto al equipo interno y externo. b'/xc2/xbf'Qub'/xc3/xa9' ofrecen? Sueldo Splitb'/xc2/xa0'(Argentina solamente)Contrato directo con la Empresa.100% remoto.Plataforma de cursos gratuitos.Licencia de paternidad/maternidad extendida.Descuentos en entidades educativas privadas.Tarjeta de descuentos: ropa, comida, viajes, etc.Inglb'/xc3/xa9's in Company.Plan de carrera internob'/xc2/xa0'en diferentes ramas IT.Proyectos multidisciplinarios. b'/xc2/xbf'De qub'/xc3/xa9' fases consta el proceso de seleccib'/xc3/xb3'n?b'/xc2/xa0' Tendrb'/xc3/xa1's una primera entrevista con alguna de nuestras Recruiters,b'/xc2/xa0'Aldana Alvarengab'/xc2/xa0'ob'/xc2/xa0'Carla Carrizo b'/xc3/x81'lvarez, para conocer tus experiencias laborales e intereses. Luego,b'/xc2/xa0'con la empresa empleadora tendrb'/xc3/xa1's 3 instancias. La primera una entrevista con el HR de la compab'/xc3/xb1'b'/xc3/xad'a para conocer mb'/xc3/xa1's sobre el desafb'/xc3/xad'o y screening en inglb'/xc3/xa9's, la segunda una evaluacib'/xc3/xb3'n tb'/xc3/xa9'cnica para conocer con profundidad tus conocimientos y por b'/xc3/xba'ltimo una instancia el cliente.
Ver aviso
Nueve de Julio-Buenos Aires (Buenos Aires)
b'/xc2/xbf'Qub'/xc3/xa9' hace la compab'/xc3/xb1'b'/xc3/xad'a? Compab'/xc3/xb1'b'/xc3/xad'a nativa digital con presencia global de gran escala de ingenierb'/xc3/xad'a, diseb'/xc3/xb1'o e innovacib'/xc3/xb3'n, con sedes ubicadas en 18 pab'/xc3/xad'ses entre Amb'/xc3/xa9'rica, Asia y Europa. Cuenta con un equipo de mb'/xc3/xa1's de 20 mil profesionales que forman parte de nuevos desafb'/xc3/xad'os y proyectos de vanguardia. b'/xc2/xbf'Qub'/xc3/xa9' necesitb'/xc3/xa1's para ser parte del equipo? A nivel personal: Ser flexible y estar orientado/a a objetivos.Tener imaginacib'/xc3/xb3'n y amar la innovacib'/xc3/xb3'n.Capacidad analb'/xc3/xad'tica de alto rendimiento.Disfrutar de la resolucib'/xc3/xb3'n de problemas.Habilidades de liderazgo. A nivel tb'/xc3/xa9'cnico: Experiencia de 5 ab'/xc3/xb1'os o mb'/xc3/xa1's trabajando como Data Engineer.Experiencia en Azure | AWS | GCP.Experiencia avanzada en Spark. Manejo de Databricks.Conocimientos y experiencias en Lenguajes de programacib'/xc3/xb3'n.Contar con un nivel avanzado de inglb'/xc3/xa9's | Excluyente.Experiencia con bases de datos SQL y NoSQL.Se valorarb'/xc3/xa1' experiencia en DataLakes.Conocimientos y/o experiencia en procesamiento de datos en tiempo real con tecnologb'/xc3/xad'a de Streaming (Kafka, Kinesis, Pubsub,) es un plus. b'/xc2/xbf'Qub'/xc3/xa9' vas a hacer? Diseb'/xc3/xb1'ar, construir y gestionar las plataformas de datos y los conductos de datos necesarios para la extraccib'/xc3/xb3'n,transformacib'/xc3/xb3'n y carga b'/xc3/xb3'ptimas de datos de diversas fuentes.Trabajar con las partes interesadas para ayudar con las necesidades relacionadas con los datos.Crear productos de datos para satisfacer las necesidades de mb'/xc3/xba'ltiples consumidores.Realizar tareas complejas de anb'/xc3/xa1'lisis y modelado de datos.Desarrollar e implementar actividades de calidad, perfilado y limpieza de datos. b'/xc2/xbf'Cub'/xc3/xa1'ndo y db'/xc3/xb3'nde trabajarb'/xc3/xa1's? Trabajarb'/xc3/xa1's bajo un esquema 100% remoto desde cualquier parte de Brasil. El horario es de lunes a viernes de 9 a 18 hs. b'/xc2/xbf'Con quib'/xc3/xa9'n trabajarb'/xc3/xa1's? Si te sumb'/xc3/xa1's a este desafb'/xc3/xad'o formarb'/xc3/xa1's parte de uno de los estudios mb'/xc3/xa1's grandes e importantes de la empresa: el b'
Ver aviso
Nueve de Julio-Buenos Aires (Buenos Aires)
b'/xc2/xbf'Qub'/xc3/xa9' hace la compab'/xc3/xb1'b'/xc3/xad'a? Compab'/xc3/xb1'b'/xc3/xad'a nativa digital con presencia global de gran escala de ingenierb'/xc3/xad'a, diseb'/xc3/xb1'o e innovacib'/xc3/xb3'n, con sedes ubicadas en 18 pab'/xc3/xad'ses entre Amb'/xc3/xa9'rica, Asia y Europa. Cuenta con un equipo de mb'/xc3/xa1's de 20 mil profesionales que forman parte de nuevos desafb'/xc3/xad'os y proyectos de vanguardia. b'/xc2/xbf'Qub'/xc3/xa9' necesitb'/xc3/xa1's para ser parte del equipo? A nivel personal: Ser flexible y estar orientado/a a objetivos.Tener imaginacib'/xc3/xb3'n y amar la innovacib'/xc3/xb3'n.Capacidad analb'/xc3/xad'tica de alto rendimiento.Disfrutar de la resolucib'/xc3/xb3'n de problemas.Habilidades de liderazgo. A nivel tb'/xc3/xa9'cnico: Experiencia de 5 ab'/xc3/xb1'os o mb'/xc3/xa1's trabajando como Data Engineer.Experiencia en Azure | AWS | GCP.Experiencia avanzada en Spark. Manejo de Databricks.Conocimientos y experiencias en Lenguajes de programacib'/xc3/xb3'n.Contar con un nivel avanzado de inglb'/xc3/xa9's | Excluyente.Experiencia con bases de datos SQL y NoSQL.Se valorarb'/xc3/xa1' experiencia en DataLakes.Conocimientos y/o experiencia en procesamiento de datos en tiempo real con tecnologb'/xc3/xad'a de Streaming (Kafka, Kinesis, Pubsub,) es un plus. b'/xc2/xbf'Qub'/xc3/xa9' vas a hacer? Diseb'/xc3/xb1'ar, construir y gestionar las plataformas de datos y los conductos de datos necesarios para la extraccib'/xc3/xb3'n,transformacib'/xc3/xb3'n y carga b'/xc3/xb3'ptimas de datos de diversas fuentes.Trabajar con las partes interesadas para ayudar con las necesidades relacionadas con los datos.Crear productos de datos para satisfacer las necesidades de mb'/xc3/xba'ltiples consumidores.Realizar tareas complejas de anb'/xc3/xa1'lisis y modelado de datos.Desarrollar e implementar actividades de calidad, perfilado y limpieza de datos. b'/xc2/xbf'Cub'/xc3/xa1'ndo y db'/xc3/xb3'nde trabajarb'/xc3/xa1's? Trabajarb'/xc3/xa1's bajo un esquema 100% remoto desde cualquier parte del pab'/xc3/xad's, si te encuentras en Santiago cuentan con la posibilidad de asistir a las oficinas de dicha ciudad (Db'/xc3/xad'as a definir). El horario es de lunes a viernes de 9 a 18 hs. b'/xc2/xbf'Con quib'/xc3/xa9'n trabajarb'/xc3/xa1's? Si te sumb'/xc3/xa1's a este desafb'/xc3/xad'o formarb'/xc3/xa1's parte de uno de los estudios mb'/xc3/xa1's grandes e importantes de la empresa: el b'
Ver aviso
Colón-Buenos Aires (Buenos Aires)
b'/xc2/xbf'Qub'/xc3/xa9' hace la compab'/xc3/xb1'b'/xc3/xad'a? Importante Banco Nacional de capitales privados con la mayor red de sucursales en Argentina. Brindan distintos servicios financieros a mb'/xc3/xa1's de 4 millones de clientes, tanto en banca individuos como en banca empresas. b'/xc2/xbf'Qub'/xc3/xa9' necesitb'/xc3/xa1's para ser parte del equipo? A nivel personal: Buenas relaciones interpersonales.Proactividad.Trabajo en Equipo.Autonomb'/xc3/xad'a.Pensamiento analb'/xc3/xad'tico.Aprendizaje continuo.Negociacib'/xc3/xb3'n. A nivel tb'/xc3/xa9'cnico: Contar con al menos mb'/xc3/xa1's de 4 ab'/xc3/xb1'os de experiencia en roles similares.Carreras de grado en Cs.Econb'/xc3/xb3'micas, Ingenierb'/xc3/xad'a o afines | Excluyente.Experiencia y conocimientos en SQL | Excluyente.Experiencia con la herramienta Data Viz: Looker Studio o similares| Excluyente.Conocimientos en productos financieros | Excluyente.Conocimientos en Python | Es un plus.Conocimiento de suite Google Workspace | Es un plus.Conocimientos de estadb'/xc3/xad'stica, anb'/xc3/xa1'lisis de datos y matemb'/xc3/xa1'tica financiera | Es un plus. b'/xc2/xbf'Qub'/xc3/xa9' vas a hacer? Como Data Analytics Sr. deberb'/xc3/xa1's: Confeccionar y dar seguimiento a los principales indicadores de gestib'/xc3/xb3'n del equipo.Medir el cumplimiento de objetivos.Brindar informacib'/xc3/xb3'n al PO/Lb'/xc3/xad'der/Referente para establecer prioridades en base a datos.Diseb'/xc3/xb1'ar, mantener y evolucionar reportes y tableros a demanda.Interpretar necesidades funcionales para generar e implementar soluciones analb'/xc3/xad'ticas.Identificar y proponer nuevas acciones fundadas en el anb'/xc3/xa1'lisis de los datos.Realizar anb'/xc3/xa1'lisis vinculados a comportamiento, uso y rentabilidad de clientes, productos y canales.Proponer mejoras tb'/xc3/xa9'cnicas para una mejor explotacib'/xc3/xb3'n y uso de los datos.Ser el focal-point del b'/xc3/xa1'rea para relevar y solicitar nuevas ingestas de datos al equipo de Data Engineering de acuerdo a las necesidades del equipo.Impulsar el uso de modelos para identificar perfiles de clientes con foco en la personalizacib'/xc3/xb3'n. b'/xc2/xbf'Cub'/xc3/xa1'l es el desafb'/xc3/xad'o de la posicib'/xc3/xb3'n? Tu principal desafb'/xc3/xad'o serb'/xc3/xa1' acompab'/xc3/xb1'ar al equipo Comercial, Comunidad, Squad o Proyecto al que seas asignado en todas las necesidades vinculadas con el anb'/xc3/xa1'lisis y explotacib'/xc3/xb3'n de datos. Esto contempla desde el entendimiento de la necesidad, la ideacib'/xc3/xb3'n/diseb'/xc3/xb1'o de la solucib'/xc3/xb3'n, la exploracib'/xc3/xb3'n y el anb'/xc3/xa1'lisis de los datos, y la propuesta de la accib'/xc3/xb3'n/campab'/xc3/xb1'a/iniciativa. b'/xc2/xbf'Con qub'/xc3/xa9' herramientas trabajarb'/xc3/xa1's? Trabajarb'/xc3/xa1's con: SQL, Looker, Google Workspace, Python. b'/xc2/xbf'Cub'/xc3/xa1'ndo y db'/xc3/xb3'nde trabajarb'/xc3/xa1's? Trabajarb'/xc3/xa1's en un esquema hb'/xc3/xad'brido asistiendo 3 db'/xc3/xad'as a las oficinas del cliente en la zona de Retiro y 2 db'/xc3/xad'as de Home Office. El horario es de lunes a viernes de 9 a 18 hs. b'/xc2/xbf'Qub'/xc3/xa9' ofrecen? Relacib'/xc3/xb3'n de dependencia directa.Obra social Bancaria.Convenio Bancario.Db'/xc3/xad'a del bancario: feriado y bono.Descuentos en productos.Monto fijo de guarderb'/xc3/xad'as para madre y padres.Becas de grado y posgrado.Licencia por estudio.Mb'/xc3/xa1's de 200 cursos y rutas de aprendizaje para capacitarte.Descuentos en SportClub.Campab'/xc3/xb1'as de vacunacib'/xc3/xb3'n.Descuento en Clb'/xc3/xad'nicas y consultas mb'/xc3/xa9'dicas virtuales.Kits escolares para tus hijos + regalo del db'/xc3/xad'a de las infancias.Gratificacib'/xc3/xb3'n por matrimonio y por nacimiento. b'/xc2/xbf'De qub'/xc3/xa9' fases consta el proceso de seleccib'/xc3/xb3'n?b'/xc2/xa0' Tendrb'/xc3/xa1's una primera entrevista con nuestra Recruiter, Victoria Coatz, para conocer tus experiencias laborales e intereses. Luego, participarb'/xc3/xa1's de una entrevista con nuestro cliente pudiendo conocer a los referentes del b'/xc3/xa1'rea y de HR.
Ver aviso
Nueve de Julio-Buenos Aires (Buenos Aires)
Qub'/xc3/xa9' hace la compab'/xc3/xb1'b'/xc3/xad'a? Es una reconocida compab'/xc3/xb1'b'/xc3/xad'a de EE.UU que brinda soluciones de proteccib'/xc3/xb3'n, ahorro, jubilacib'/xc3/xb3'n y beneficios en el mundo. Lideran el mercado de seguros y estb'/xc3/xa1'n presentes en mb'/xc3/xa1's de 40 pab'/xc3/xad'ses de Asia, Latam y EE.UU con mb'/xc3/xa1's de 49.000 colaboradores que le brindan servicio a mb'/xc3/xa1's de 90 millones de clientes. b'/xc2/xbf'Qub'/xc3/xa9' necesitb'/xc3/xa1's para ser parte del equipo? A nivel personal: Excelente trato interpersonal.Proactividad.Gran capacidad de anb'/xc3/xa1'lisis.Autonomb'/xc3/xad'a y compromiso.Capacidad para trabajar en equipo.Excelentes habilidades de comunicacib'/xc3/xb3'n: Capacidad demostrada para explicar contenido tb'/xc3/xa9'cnico complejo a audiencias tanto tb'/xc3/xa9'cnicas como no tb'/xc3/xa9'cnicas.Habilidades analb'/xc3/xad'ticas y de pensamiento crb'/xc3/xad'tico. A nivel tb'/xc3/xa9'cnico: Mb'/xc3/xa1's de 5 ab'/xc3/xb1'os de experiencia en desarrollo de ETL y data warehousing | Excluyente.Mb'/xc3/xa1's de 3 ab'/xc3/xb1'os de experiencia en el diseb'/xc3/xb1'o de ETL y lagos de datos en la nube o plataformas basadas en big data | Excluyente.Experiencia demostrada en la implementacib'/xc3/xb3'n y despliegue de centros de datos escalables y de alto rendimiento a escala global.Experiencia demostrada en tecnologb'/xc3/xad'as de bases de datos de b'/xc3/xba'ltima generacib'/xc3/xb3'n y servicios en la nube como Azure, GCP, Data Bricks o SnowFlake; experiencia profunda en tecnologb'/xc3/xad'as como Spark (Scala/python/Java), ADLS, Kafka, SQL, Synapse SQL, Cosmos DB, Graph DBs [en Azure use SPARK] | Excluyente.Experiencia prb'/xc3/xa1'ctica en implementacib'/xc3/xb3'n de almacenes de datos analb'/xc3/xad'ticos en la plataforma Azure utilizando ADLS/Azure data factory /Data Bricks y Cosmos DB (mongo/graph API) | Excluyente.Sb'/xc3/xb3'lidos conocimientos analb'/xc3/xad'ticos relacionados con el trabajo con conjuntos de datos no estructurados | Excluyente.Sb'/xc3/xb3'lidos conocimientos de SQL y habilidades de anb'/xc3/xa1'lisis de datos para la deteccib'/xc3/xb3'n de anomalb'/xc3/xad'as y el aseguramiento de la calidad de los datos | Excluyente.Ganas de aprender nuevas tecnologb'/xc3/xad'as sobre la marcha y llevarlas a produccib'/xc3/xb3'n.Experiencia demostrada en gestib'/xc3/xb3'n de la configuracib'/xc3/xb3'n, automatizacib'/xc3/xb3'n DevOps.b'/xc2/xa0'Experiencia de trabajo en programas empresariales complejos a gran escala, multiequipo y en metodologb'/xc3/xad'as de desarrollo b'/xc3/xa1'gil.Experiencia en implementacib'/xc3/xb3'n de soluciones, pruebas de rendimiento y ajuste; ADLS, base de datos Synapse SQL o gestib'/xc3/xb3'n de GCP Big Query y GCS y ajuste de rendimiento - Particionamiento / Bucketing | Excluyente. b'/xc2/xbf'Qub'/xc3/xa9' vas a hacer? Recopilar, almacenar, procesar y analizar grandes conjuntos de datos para construir e implementar procesos de extraccib'/xc3/xb3'n, transferencia y carga (ETL).Crear marcos y herramientas para desarrolladores, diseb'/xc3/xb1'ar materiales de formacib'/xc3/xb3'n, impartir formacib'/xc3/xb3'n para desarrolladores. Evangelizar nuevas ideas, estb'/xc3/xa1'ndares, mejores prb'/xc3/xa1'cticas y soluciones con la comunidad de desarrolladores y tb'/xc3/xa9'cnicos.Desarrollar cb'/xc3/xb3'digo de calidad con optimizaciones de rendimiento bien pensadas desde la fase de desarrollo.Ganas de aprender nuevas tecnologb'/xc3/xad'as y estar dispuesto a trabajar en nuevas tecnologb'/xc3/xad'as de vanguardia en la nube.Ingerir grandes volb'/xc3/xba'menes de datos de diversas plataformas para las necesidades y escribir cb'/xc3/xb3'digo ETL de alto rendimiento, fiable y mantenible.Interactuar con analistas de negocio y analistas funcionales para obtener los requisitos e implementar las soluciones ETL.Proporcionar apoyo tb'/xc3/xa9'cnico a los equipos de proyecto durante todo el ciclo de vida del proyecto en torno a plataformas tecnolb'/xc3/xb3'gicas, diseb'/xc3/xb1'o de soluciones, seguridad, depuracib'/xc3/xb3'n, creacib'/xc3/xb3'n de perfiles, ajuste del rendimiento, etc. b'/xc2/xbf'Cub'/xc3/xa1'l es el desafb'/xc3/xad'o de la posicib'/xc3/xb3'n?b'/xc2/xa0' En LATAM Data Hub (LDH), la misib'/xc3/xb3'n es construir la prb'/xc3/xb3'xima generacib'/xc3/xb3'n de data lake house para la compab'/xc3/xb1'b'/xc3/xad'a y ayudar a desplegarlo en varios pab'/xc3/xad'ses de LATAM. Han desarrollado una plataforma de clase mundial, nativa de la nube, para permitir la presentacib'/xc3/xb3'n de informes, anb'/xc3/xa1'lisis, canalizacib'/xc3/xb3'n de suministro de datos y suministro en tiempo real de los datos a diversos canales digitales y no digitales. La plataforma aprovecha tecnologb'/xc3/xad'as propias y de cb'/xc3/xb3'digo abierto de vanguardia para crear un sistema altamente configurable que puede adaptarse a las necesidades individuales del mercado rb'/xc3/xa1'pidamente y a bajo coste. La plataforma se ejecuta en un entorno en la nube elb'/xc3/xa1'stico y totalmente en contenedores, y estb'/xc3/xa1' diseb'/xc3/xb1'ada para escalar y dar servicio a millones de usuarios. b'/xc2/xbf'Con quib'/xc3/xa9'n trabajarb'/xc3/xa1's?b'/xc2/xa0' Formarb'/xc3/xa1's parte de un equipo regional, participando de proyectos en Brasil, Chile y Mb'/xc3/xa9'xico. b'/xc2/xbf'Cub'/xc3/xa1'ndo y db'/xc3/xb3'nde trabajarb'/xc3/xa1's? Vas a trabajar en un esquema de 9 a 18 hs. Si sos de Buenos Aires serb'/xc3/xa1' hb'/xc3/xad'brido con 4 db'/xc3/xad'as de home office y 1 db'/xc3/xad'a on site en oficinas de Microcentro. En el caso de vivir en otra provincia el esquema es 100% remoto. b'/xc2/xbf'Qub'/xc3/xa9' ofrecen? Relacib'/xc3/xb3'n de dependencia directa.Un porcentaje del salario dolarizado.Prepaga para el/la empleado/a y grupo familiar primario.Posibilidad de Certificarse.Reintegro por gastos de conectividad (Se actualizarb'/xc3/xa1' perib'/xc3/xb3'dicamente).Db'/xc3/xad'a off de cumpleab'/xc3/xb1'os.Db'/xc3/xad'a de herencia cultura libre.Viernes flex a partir de las 14 pm.Seguro de vida adicional que corresponde por ley.Licencia por paternidad extendida.Soft Landing en licencias por maternidad.Pago b'/xc3/xba'nico por hijo para compra de b'/xc3/xba'tiles escolares.Asesoramiento impositivo.Check-up mb'/xc3/xa9'dico anual.Vacunacib'/xc3/xb3'n in company.Desayuno saludable en la oficina.Vacaciones por db'/xc3/xad'as hb'/xc3/xa1'biles.Reintegro por guarderb'/xc3/xad'as/jardb'/xc3/xad'n de infantes.Plataforma de e-learning para cursos de idiomas y training.Gimnasio in company.Estacionamiento.Descuentos en SportClub para empleados/as y grupo familiar primario, o reintegro de gastos por actividad fb'/xc3/xad'sica.Descuento en seguros (automotor, rodados y hogar).Club de beneficios. b'/xc2/xbf'De qub'/xc3/xa9' fases consta el proceso de seleccib'/xc3/xb3'n?b'/xc2/xa0' Tendrb'/xc3/xa1's una primera entrevista con nuestra Recruiter, Rocb'/xc3/xad'o Albelo, para conocer tus experiencias laborales e intereses. Luego, participarb'/xc3/xa1's de una entrevista en inglb'/xc3/xa9's en la que estarb'/xc3/xa1'n los lb'/xc3/xad'deres tb'/xc3/xa9'cnicos y representantes de RH para que puedan conocerte.
Ver aviso
Nueve de Julio-Buenos Aires (Buenos Aires)
Qub'/xc3/xa9' hace la compab'/xc3/xb1'b'/xc3/xad'a? Es una reconocida compab'/xc3/xb1'b'/xc3/xad'a de EE.UU que brinda soluciones de proteccib'/xc3/xb3'n, ahorro, jubilacib'/xc3/xb3'n y beneficios en el mundo. Lideran el mercado de seguros y estb'/xc3/xa1'n presentes en mb'/xc3/xa1's de 40 pab'/xc3/xad'ses de Asia, Latam y EE.UU con mb'/xc3/xa1's de 49.000 colaboradores que le brindan servicio a mb'/xc3/xa1's de 90 millones de clientes. b'/xc2/xbf'Qub'/xc3/xa9' necesitb'/xc3/xa1's para ser parte del equipo? A nivel personal: Excelente trato interpersonal.Proactividad.Gran capacidad de anb'/xc3/xa1'lisis.Autonomb'/xc3/xad'a y compromiso.Capacidad para trabajar en equipo.Excelentes habilidades de comunicacib'/xc3/xb3'n: Capacidad demostrada para explicar contenido tb'/xc3/xa9'cnico complejo a audiencias tanto tb'/xc3/xa9'cnicas como no tb'/xc3/xa9'cnicas.Habilidades analb'/xc3/xad'ticas y de pensamiento crb'/xc3/xad'tico. A nivel tb'/xc3/xa9'cnico: Mb'/xc3/xa1's de 5 ab'/xc3/xb1'os de experiencia en desarrollo de ETL y data warehousing | Excluyente.Mb'/xc3/xa1's de 3 ab'/xc3/xb1'os de experiencia en el diseb'/xc3/xb1'o de ETL y lagos de datos en la nube o plataformas basadas en big data | Excluyente.Experiencia demostrada en la implementacib'/xc3/xb3'n y despliegue de centros de datos escalables y de alto rendimiento a escala global.Experiencia demostrada en tecnologb'/xc3/xad'as de bases de datos de b'/xc3/xba'ltima generacib'/xc3/xb3'n y servicios en la nube como Azure, GCP, Data Bricks o SnowFlake; experiencia profunda en tecnologb'/xc3/xad'as como Spark (Scala/python/Java), ADLS, Kafka, SQL, Synapse SQL, Cosmos DB, Graph DBs [en Azure use SPARK] | Excluyente.Experiencia prb'/xc3/xa1'ctica en implementacib'/xc3/xb3'n de almacenes de datos analb'/xc3/xad'ticos en la plataforma Azure utilizando ADLS/Azure data factory /Data Bricks y Cosmos DB (mongo/graph API) | Excluyente.Sb'/xc3/xb3'lidos conocimientos analb'/xc3/xad'ticos relacionados con el trabajo con conjuntos de datos no estructurados | Excluyente.Sb'/xc3/xb3'lidos conocimientos de SQL y habilidades de anb'/xc3/xa1'lisis de datos para la deteccib'/xc3/xb3'n de anomalb'/xc3/xad'as y el aseguramiento de la calidad de los datos | Excluyente.Ganas de aprender nuevas tecnologb'/xc3/xad'as sobre la marcha y llevarlas a produccib'/xc3/xb3'n.Experiencia demostrada en gestib'/xc3/xb3'n de la configuracib'/xc3/xb3'n, automatizacib'/xc3/xb3'n DevOps.b'/xc2/xa0'Experiencia de trabajo en programas empresariales complejos a gran escala, multiequipo y en metodologb'/xc3/xad'as de desarrollo b'/xc3/xa1'gil.Experiencia en implementacib'/xc3/xb3'n de soluciones, pruebas de rendimiento y ajuste; ADLS, base de datos Synapse SQL o gestib'/xc3/xb3'n de GCP Big Query y GCS y ajuste de rendimiento - Particionamiento / Bucketing | Excluyente. b'/xc2/xbf'Qub'/xc3/xa9' vas a hacer? Recopilar, almacenar, procesar y analizar grandes conjuntos de datos para construir e implementar procesos de extraccib'/xc3/xb3'n, transferencia y carga (ETL).Crear marcos y herramientas para desarrolladores, diseb'/xc3/xb1'ar materiales de formacib'/xc3/xb3'n, impartir formacib'/xc3/xb3'n para desarrolladores. Evangelizar nuevas ideas, estb'/xc3/xa1'ndares, mejores prb'/xc3/xa1'cticas y soluciones con la comunidad de desarrolladores y tb'/xc3/xa9'cnicos.Desarrollar cb'/xc3/xb3'digo de calidad con optimizaciones de rendimiento bien pensadas desde la fase de desarrollo.Ganas de aprender nuevas tecnologb'/xc3/xad'as y estar dispuesto a trabajar en nuevas tecnologb'/xc3/xad'as de vanguardia en la nube.Ingerir grandes volb'/xc3/xba'menes de datos de diversas plataformas para las necesidades y escribir cb'/xc3/xb3'digo ETL de alto rendimiento, fiable y mantenible.Interactuar con analistas de negocio y analistas funcionales para obtener los requisitos e implementar las soluciones ETL.Proporcionar apoyo tb'/xc3/xa9'cnico a los equipos de proyecto durante todo el ciclo de vida del proyecto en torno a plataformas tecnolb'/xc3/xb3'gicas, diseb'/xc3/xb1'o de soluciones, seguridad, depuracib'/xc3/xb3'n, creacib'/xc3/xb3'n de perfiles, ajuste del rendimiento, etc. b'/xc2/xbf'Cub'/xc3/xa1'l es el desafb'/xc3/xad'o de la posicib'/xc3/xb3'n?b'/xc2/xa0' En LATAM Data Hub (LDH), la misib'/xc3/xb3'n es construir la prb'/xc3/xb3'xima generacib'/xc3/xb3'n de data lake house para la compab'/xc3/xb1'b'/xc3/xad'a y ayudar a desplegarlo en varios pab'/xc3/xad'ses de LATAM. Han desarrollado una plataforma de clase mundial, nativa de la nube, para permitir la presentacib'/xc3/xb3'n de informes, anb'/xc3/xa1'lisis, canalizacib'/xc3/xb3'n de suministro de datos y suministro en tiempo real de los datos a diversos canales digitales y no digitales. La plataforma aprovecha tecnologb'/xc3/xad'as propias y de cb'/xc3/xb3'digo abierto de vanguardia para crear un sistema altamente configurable que puede adaptarse a las necesidades individuales del mercado rb'/xc3/xa1'pidamente y a bajo coste. La plataforma se ejecuta en un entorno en la nube elb'/xc3/xa1'stico y totalmente en contenedores, y estb'/xc3/xa1' diseb'/xc3/xb1'ada para escalar y dar servicio a millones de usuarios. b'/xc2/xbf'Con quib'/xc3/xa9'n trabajarb'/xc3/xa1's?b'/xc2/xa0' Formarb'/xc3/xa1's parte de un equipo regional, participando de proyectos en Brasil, Chile y Mb'/xc3/xa9'xico. b'/xc2/xbf'Cub'/xc3/xa1'ndo y db'/xc3/xb3'nde trabajarb'/xc3/xa1's? Vas a trabajar en un esquema de 9 a 18 hs. Si sos de Buenos Aires serb'/xc3/xa1' hb'/xc3/xad'brido con 4 db'/xc3/xad'as de home office y 1 db'/xc3/xad'a on site en oficinas de Microcentro. En el caso de vivir en otra provincia el esquema es 100% remoto. b'/xc2/xbf'Qub'/xc3/xa9' ofrecen? Relacib'/xc3/xb3'n de dependencia directa.Un porcentaje del salario dolarizado.Prepaga para el/la empleado/a y grupo familiar primario.Posibilidad de Certificarse.Reintegro por gastos de conectividad (Se actualizarb'/xc3/xa1' perib'/xc3/xb3'dicamente).Db'/xc3/xad'a off de cumpleab'/xc3/xb1'os.Db'/xc3/xad'a de herencia cultura libre.Viernes flex a partir de las 14 pm.Seguro de vida adicional que corresponde por ley.Licencia por paternidad extendida.Soft Landing en licencias por maternidad.Pago b'/xc3/xba'nico por hijo para compra de b'/xc3/xba'tiles escolares.Asesoramiento impositivo.Check-up mb'/xc3/xa9'dico anual.Vacunacib'/xc3/xb3'n in company.Desayuno saludable en la oficina.Vacaciones por db'/xc3/xad'as hb'/xc3/xa1'biles.Reintegro por guarderb'/xc3/xad'as/jardb'/xc3/xad'n de infantes.Plataforma de e-learning para cursos de idiomas y training.Gimnasio in company.Estacionamiento.Descuentos en SportClub para empleados/as y grupo familiar primario, o reintegro de gastos por actividad fb'/xc3/xad'sica.Descuento en seguros (automotor, rodados y hogar).Club de beneficios. b'/xc2/xbf'De qub'/xc3/xa9' fases consta el proceso de seleccib'/xc3/xb3'n?b'/xc2/xa0' Tendrb'/xc3/xa1's una primera entrevista con alguna de nuestras Recruiters, Rocb'/xc3/xad'o Albelob'/xc2/xa0'ob'/xc2/xa0'Carla Carrizo, para conocer tus experiencias laborales e intereses. Luego, participarb'/xc3/xa1's de una entrevista en inglb'/xc3/xa9's en la que estarb'/xc3/xa1'n los lb'/xc3/xad'deres tb'/xc3/xa9'cnicos y representantes de RH para que puedan conocerte.
Ver aviso
Nueve de Julio-Buenos Aires (Buenos Aires)
b'/xc2/xa0' b'/xc2/xbf'Qub'/xc3/xa9' hace la compab'/xc3/xb1'b'/xc3/xad'a? Es una reconocida compab'/xc3/xb1'b'/xc3/xad'a de EE.UU que brinda soluciones de proteccib'/xc3/xb3'n, ahorro, jubilacib'/xc3/xb3'n y beneficios en el mundo.b'/xc2/xa0'Lideran el mercado de seguros y estb'/xc3/xa1'n presentes en mb'/xc3/xa1's de 40 pab'/xc3/xad'ses de Asia, Latam y EE.UU con mb'/xc3/xa1's de 49.000 colaboradores que le brindan servicio a mb'/xc3/xa1's de 90 millones de clientes. b'/xc2/xbf'Qub'/xc3/xa9' necesitb'/xc3/xa1's para ser parte del equipo? A nivel personal: Excelente trato interpersonal.Proactividad.Gran capacidad de anb'/xc3/xa1'lisis.Autonomb'/xc3/xad'a y compromiso.Capacidad para trabajar en equipo.Excelentes habilidades de comunicacib'/xc3/xb3'n:b'/xc2/xa0'Capacidad demostrada para explicar contenido tb'/xc3/xa9'cnico complejo a audiencias tanto tb'/xc3/xa9'cnicas como no tb'/xc3/xa9'cnicas.Habilidades analb'/xc3/xad'ticas y de pensamiento crb'/xc3/xad'tico. A nivel tb'/xc3/xa9'cnico: Mb'/xc3/xa1's de 3 ab'/xc3/xb1'os de experiencia en desarrollo de ETL y data warehousingb'/xc2/xa0'| Excluyente.Mb'/xc3/xa1's de 3 ab'/xc3/xb1'os de experiencia en el diseb'/xc3/xb1'o de ETL y datalake en la nube o plataformas basadas en big datab'/xc2/xa0'| Excluyente.Experiencia demostrada en lab'/xc2/xa0'implementacib'/xc3/xb3'n y despliegue de centros de datos escalables y de alto rendimiento a escala global.Experiencia demostrada enb'/xc2/xa0'tecnologb'/xc3/xad'as de bases de datos de b'/xc3/xba'ltima generacib'/xc3/xb3'n y servicios en la nubeb'/xc2/xa0'como Azure, GCP, AWS, Data Bricks o SnowFlake; experiencia profunda en tecnologb'/xc3/xad'as como Spark (Scala/python/Java), ADLS, Kafka, SQL, Synapse SQL, Cosmos DB, Graph DBs [en Azure use SPARK] | Excluyente.Experiencia prb'/xc3/xa1'ctica enb'/xc2/xa0'implementacib'/xc3/xb3'n de almacenes de datos analb'/xc3/xad'ticosb'/xc2/xa0'en plataformas cloud (Azure, GCP o AWS) utilizando ADLS/Azure data factory /Data Bricks y Cosmos DB (mongo/graph API) | Excluyente.Sb'/xc3/xb3'lidos conocimientos analb'/xc3/xad'ticos relacionados con elb'/xc2/xa0'trabajo con conjuntos de datos no estructuradosb'/xc2/xa0'| Excluyente.Sb'/xc3/xb3'lidos conocimientos deb'/xc2/xa0'SQL y habilidades de anb'/xc3/xa1'lisis de datosb'/xc2/xa0'para la deteccib'/xc3/xb3'n de anomalb'/xc3/xad'as y el aseguramiento de la calidad de los datos | Excluyente.Ganas de aprender nuevas tecnologb'/xc3/xad'asb'/xc2/xa0'sobre la marcha y llevarlas a produccib'/xc3/xb3'n.Experiencia demostrada enb'/xc2/xa0'gestib'/xc3/xb3'n de la configuracib'/xc3/xb3'n, automatizacib'/xc3/xb3'n DevOps.b'/xc2/xa0'Experiencia de trabajo enb'/xc2/xa0'programas empresariales complejos a gran escala, multiequipo y en metodologb'/xc3/xad'as de desarrollo b'/xc3/xa1'gil.Experiencia enb'/xc2/xa0'implementacib'/xc3/xb3'n de soluciones, pruebas de rendimiento y ajuste; ADLS, base de datos Synapse SQL o gestib'/xc3/xb3'n de GCP Big Query y GCS y ajuste de rendimiento b'/xe2/x80/x93' Particionamiento / Bucketing | Deseable. b'/xc2/xbf'Qub'/xc3/xa9' vas a hacer? Recopilar, almacenar, procesar y analizar grandes conjuntos de datosb'/xc2/xa0'para construir e implementar procesos de extraccib'/xc3/xb3'n, transferencia y carga (ETL).Crear marcos y herramientasb'/xc2/xa0'para desarrolladores, diseb'/xc3/xb1'ar materiales de formacib'/xc3/xb3'n, impartir formacib'/xc3/xb3'n para desarrolladores. Evangelizar nuevas ideas, estb'/xc3/xa1'ndares, mejores prb'/xc3/xa1'cticas y soluciones con la comunidad de desarrolladores y tb'/xc3/xa9'cnicos.Desarrollar cb'/xc3/xb3'digo de calidadb'/xc2/xa0'con optimizaciones de rendimiento bien pensadas desde la fase de desarrollo.Ganas de aprenderb'/xc2/xa0'nuevas tecnologb'/xc3/xad'as y estar dispuesto a trabajar en nuevas tecnologb'/xc3/xad'as de vanguardia en la nube.Ingerir grandes volb'/xc3/xba'menes de datos de diversas plataformasb'/xc2/xa0'para las necesidades y escribir cb'/xc3/xb3'digo ETL de alto rendimiento, fiable y mantenible.Interactuar con analistas de negocio y analistas funcionalesb'/xc2/xa0'para obtener los requisitos e implementar las soluciones ETL.Proporcionar apoyo tb'/xc3/xa9'cnicob'/xc2/xa0'a los equipos de proyecto durante todo el ciclo de vida del proyecto en torno a plataformas tecnolb'/xc3/xb3'gicas, diseb'/xc3/xb1'o de soluciones, seguridad, depuracib'/xc3/xb3'n, creacib'/xc3/xb3'n de perfiles, ajuste del rendimiento, etc. b'/xc2/xbf'Cub'/xc3/xa1'l es el desafb'/xc3/xad'o de la posicib'/xc3/xb3'n?b'/xc2/xa0' En LATAM Data Hub (LDH), la misib'/xc3/xb3'n esb'/xc2/xa0'construir la prb'/xc3/xb3'xima generacib'/xc3/xb3'n de data lake house para la compab'/xc3/xb1'b'/xc3/xad'ab'/xc2/xa0'y ayudar a desplegarlo en varios pab'/xc3/xad'ses de LATAM. Han desarrollado unab'/xc2/xa0'plataforma de clase mundial, nativa de la nube, para permitir la presentacib'/xc3/xb3'n de informes, anb'/xc3/xa1'lisis, canalizacib'/xc3/xb3'n de suministro de datos y suministro en tiempo real de los datos a diversos canales digitales y no digitales. La plataforma aprovecha tecnologb'/xc3/xad'as propias y de cb'/xc3/xb3'digo abierto de vanguardia para crear un sistema altamente configurable que puede adaptarse a las necesidades individuales del mercado rb'/xc3/xa1'pidamente y a bajo coste. La plataforma se ejecuta en un entorno en la nube elb'/xc3/xa1'stico y totalmente en contenedores, y estb'/xc3/xa1' diseb'/xc3/xb1'ada para escalar y dar servicio a millones de usuarios. b'/xc2/xbf'Con quib'/xc3/xa9'n trabajarb'/xc3/xa1's?b'/xc2/xa0' Formarb'/xc3/xa1's parte de unb'/xc2/xa0'equipo regional, participando de proyectos en Brasil, Chile y Mb'/xc3/xa9'xico. b'/xc2/xbf'Cub'/xc3/xa1'ndo y db'/xc3/xb3'nde trabajarb'/xc3/xa1's? Vas a trabajar en un esquema deb'/xc2/xa0'9 a 18 hsb'/xc2/xa0'con 4 db'/xc3/xad'as de home office y 1 db'/xc3/xad'a on siteb'/xc2/xa0'en oficinas de Microcentro. El esquema a demanda del sector, por lo que es probable que algunas semanas sea 100% remoto. b'/xc2/xbf'Qub'/xc3/xa9' ofrecen? Relacib'/xc3/xb3'n de dependencia directa.Un porcentaje del salario dolarizado.Prepaga para el/la empleado/a y grupo familiar primario.Posibilidad deb'/xc2/xa0'Certificarse.Reintegro por gastos de conectividadb'/xc2/xa0'(Se actualizarb'/xc3/xa1' perib'/xc3/xb3'dicamente).Db'/xc3/xad'a off de cumpleab'/xc3/xb1'os.Db'/xc3/xad'a de herencia cultura libre.Viernes flexb'/xc2/xa0'a partir de las 14 pm.Seguro de vida adicional que corresponde por ley.Licencia por paternidad extendida.Soft Landingb'/xc2/xa0'en licencias por maternidad.Pago b'/xc3/xba'nico por hijo para compra de b'/xc3/xba'tiles escolares.Asesoramiento impositivo.Check-up mb'/xc3/xa9'dico anual.Vacunacib'/xc3/xb3'n in company.Desayuno saludableb'/xc2/xa0'en la oficina.Vacaciones por db'/xc3/xad'as hb'/xc3/xa1'biles.Reintegro por guarderb'/xc3/xad'as/jardb'/xc3/xad'n de infantes.Plataforma de e-learningb'/xc2/xa0'para cursos de idiomas yb'/xc2/xa0'training.Gimnasio in company.Estacionamiento.Descuentos en SportClubb'/xc2/xa0'para empleados/as y grupo familiar primario, o reintegro de gastos por actividad fb'/xc3/xad'sica.Descuento en segurosb'/xc2/xa0'(automotor, rodados y hogar).Club de beneficios. b'/xc2/xbf'De qub'/xc3/xa9' fases consta el proceso de seleccib'/xc3/xb3'n?b'/xc2/xa0' Tendrb'/xc3/xa1's unab'/xc2/xa0'primera entrevista conb'/xc2/xa0'alguna de nuestras Recruiters,b'/xc2/xa0'Rocb'/xc3/xad'o Albelob'/xc2/xa0'ob'/xc2/xa0'Carla Carrizo b'/xc3/x81'lvarez, para conocer tus experiencias laborales e intereses. Luego, participarb'/xc3/xa1's de unab'/xc2/xa0'entrevista en inglb'/xc3/xa9's en la que estarb'/xc3/xa1'n los lb'/xc3/xad'deres tb'/xc3/xa9'cnicos y representantes de RH para que puedan conocerte.
Ver aviso
Nueve de Julio-Buenos Aires (Buenos Aires)
Somosb'/xc2/xa0'IT Patagonia, una empresa de servicios de tecnologb'/xc3/xad'a con mb'/xc3/xa1's de 35 ab'/xc3/xb1'os de experiencia en lab'/xc2/xa0'industria del conocimiento.Ofrecemos servicios integrales y el desarrollo de soluciones tecnolb'/xc3/xb3'gicasb'/xc2/xa0'innovadoras en la Argentina y la regib'/xc3/xb3'n. Impulsamos el desarrollo de nuestros clientes a travb'/xc3/xa9's delb'/xc2/xa0'desarrollo de software a medida, productos digitales y servicios de consultorb'/xc3/xad'a.Somos parte de una nueva forma de hacer negocios, comprometida con un sistema econb'/xc3/xb3'mico queb'/xc2/xa0'beneficia al planeta y a todas las personas. Nos certificamos como una de las Empresas B, pioneras enb'/xc2/xa0'Argentina y el mundo, y somos la 4ta mejor empresa para trabajar en el rubro Tecnologb'/xc3/xad'a, segb'/xc3/xba'n elb'/xc2/xa0'ranking de Great Place To Work en la categorb'/xc3/xad'a de empresas de entre 251 y 1000 colaboradores.Estamos reforzando el equipo y buscamos un Software Engineer SR, que se sumen a la comunidad de IT Patagonia.Buscamos un Software Engineer con experiencia en el desarrollo de microservicios. Este rol es esencial para construir, mantener y optimizar los servicios que permiten el manejo eficiente y escalable de nuestros datos en la nube.Responsabilidades:* Diseb'/xc3/xb1'ar, desarrollar y desplegar microservicios en la plataforma de datos, asegurando escalabilidad y alta disponibilidad.* Colaborar con el equipo de Data Engineering para integrar los microservicios con las infraestructuras de datos.* Gestionar y optimizar bases de datos, preferentemente Amazon Redshift, pero tambib'/xc3/xa9'n Teradata y SQL Server.* Utilizar herramientas de integracib'/xc3/xb3'n y despliegue continuo como Jenkins y OpenShift para automatizar los procesos de desarrollo y despliegue.* Desarrollar aplicaciones front-end utilizando React y JavaScript.* Implementar servicios backend con.NET,.NET Core, o Node.js.* Manipular y transformar datos utilizando formatos como JSON y Parquet.* Asegurar la calidad del cb'/xc3/xb3'digo mediante pruebas unitarias, integracib'/xc3/xb3'n continua, y revisiones de cb'/xc3/xb3'digo.Requisitos:* Experiencia comprobable en el desarrollo de microservicios, preferentemente en un entorno de datos o en la nube.* Conocimientos avanzados en bases de datos, especialmente Amazon Redshift, pero tambib'/xc3/xa9'n experiencia con Teradata y SQL Server.* Familiaridad con herramientas de integracib'/xc3/xb3'n y despliegue continuo como Jenkins y OpenShift o similares.* Sb'/xc3/xb3'lidos conocimientos en desarrollo front-end con React y JavaScript.* Experiencia en desarrollo backend utilizando.NET,.NET Core, o Node.js.* Conocimientos en manipulacib'/xc3/xb3'n de datos con formatos como JSON y Parquet o similares.* Capacidad para trabajar en entornos b'/xc3/xa1'giles y colaborar estrechamente con equipos multidisciplinarios.Habilidades adicionales valoradas:* Experiencia en la nube, especialmente en AWS.* Conocimientos en otras herramientas de orquestacib'/xc3/xb3'n y contenedores como Kubernetes o Docker.* Experiencia previa en proyectos de migracib'/xc3/xb3'n de datos o modernizacib'/xc3/xb3'n de aplicaciones.Ser Patagonian significa abrazar valores profundos, como la solidaridad, el trabajo en equipo, lab'/xc2/xa0'inclusib'/xc3/xb3'n, el compromiso y la innovacib'/xc3/xb3'n. Somos portadores de cb'/xc3/xb3'digos, no solo en nuestro software, sino en nuestro espb'/xc3/xad'ritu. Creamos tecnologb'/xc3/xad'a con valores arraigados a nuestra esencia.Somos mb'/xc3/xa1's que gente de tecnologb'/xc3/xad'a; somos arquitectos de un mundo mejor, guiados por nuestrob'/xc2/xa0'propio cb'/xc3/xb3'digo.b'/xc2/xa0'b'/xc2/xa1'Sumate a esta experiencia!
Ver aviso
Nueve de Julio-Buenos Aires (Buenos Aires)
b'/xc2/xbf'Qub'/xc3/xa9' hace la compab'/xc3/xb1'b'/xc3/xad'a? b'/xc2/xa0' Es una reconocida compab'/xc3/xb1'b'/xc3/xad'a de EE.UU que brinda soluciones de proteccib'/xc3/xb3'n, ahorro, jubilacib'/xc3/xb3'n y beneficios en el mundo.b'/xc2/xa0' b'/xc2/xa0' b'/xc2/xbf'Qub'/xc3/xa9' necesitb'/xc3/xa1's para ser parte del equipo? A nivel personal: Excelente trato interpersonal.Proactividad.Gran capacidad de anb'/xc3/xa1'lisis.Autonomb'/xc3/xad'a y compromiso.Capacidad para trabajar en equipo.Excelentes habilidades de comunicacib'/xc3/xb3'n: Capacidad demostrada para explicar contenido tb'/xc3/xa9'cnico complejo a audiencias tanto tb'/xc3/xa9'cnicas como no tb'/xc3/xa9'cnicas.Habilidades analb'/xc3/xad'ticas y de pensamiento crb'/xc3/xad'tico. A nivel tb'/xc3/xa9'cnico: Mb'/xc3/xa1's de 5 ab'/xc3/xb1'os de experiencia en desarrollo de ETL y data warehousing | Excluyente.Mb'/xc3/xa1's de 3 ab'/xc3/xb1'os de experiencia en el diseb'/xc3/xb1'o de ETL y lagos de datos en la nube o plataformas basadas en big data | Excluyente.Experiencia demostrada en la implementacib'/xc3/xb3'n y despliegue de centros de datos escalables y de alto rendimiento a escala global.Experiencia demostrada en tecnologb'/xc3/xad'as de bases de datos de b'/xc3/xba'ltima generacib'/xc3/xb3'n y servicios en la nube como Azure, GCP, Data Bricks o SnowFlake; experiencia profunda en tecnologb'/xc3/xad'as como Spark (Scala/python/Java), ADLS, Kafka, SQL, Synapse SQL, Cosmos DB, Graph DBs [en Azure use SPARK] | Excluyente. b'/xc2/xa0' b'/xc2/xbf'Qub'/xc3/xa9' vas a hacer? Recopilar, almacenar, procesar y analizar grandes conjuntos de datos para construir e implementar procesos de extraccib'/xc3/xb3'n, transferencia y carga (ETL).Crear marcos y herramientas para desarrolladores, diseb'/xc3/xb1'ar materiales de formacib'/xc3/xb3'n, impartir formacib'/xc3/xb3'n para desarrolladores. Evangelizar nuevas ideas, estb'/xc3/xa1'ndares, mejores prb'/xc3/xa1'cticas y soluciones con la comunidad de desarrolladores y tb'/xc3/xa9'cnicos.Desarrollar cb'/xc3/xb3'digo de calidad con optimizaciones de rendimiento bien pensadas desde la fase de desarrollo.Ganas de aprender nuevas tecnologb'/xc3/xad'as y estar dispuesto a trabajar en nuevas tecnologb'/xc3/xad'as de vanguardia en la nube.Ingerir grandes volb'/xc3/xba'menes de datos de diversas plataformas para las necesidades y escribir cb'/xc3/xb3'digo ETL de alto rendimiento, fiable y mantenible.Interactuar con analistas de negocio y analistas funcionales para obtener los requisitos e implementar las soluciones ETL.Proporcionar apoyo tb'/xc3/xa9'cnico a los equipos de proyecto durante todo el ciclo de vida del proyecto en torno a plataformas tecnolb'/xc3/xb3'gicas, diseb'/xc3/xb1'o de soluciones, seguridad, depuracib'/xc3/xb3'n, creacib'/xc3/xb3'n de perfiles, ajuste del rendimiento, etc. b'/xc2/xa0' b'/xc2/xbf'Cub'/xc3/xa1'l es el desafb'/xc3/xad'o de la posicib'/xc3/xb3'n?b'/xc2/xa0' En LATAM Data Hub (LDH), la misib'/xc3/xb3'n es construir la prb'/xc3/xb3'xima generacib'/xc3/xb3'n de data lake house para la compab'/xc3/xb1'b'/xc3/xad'a y ayudar a desplegarlo en varios pab'/xc3/xad'ses de LATAM. Han desarrollado una plataforma de clase mundial, nativa de la nube, para permitir la presentacib'/xc3/xb3'n de informes, anb'/xc3/xa1'lisis, canalizacib'/xc3/xb3'n de suministro de datos y suministro en tiempo real de los datos a diversos canales digitales y no digitales. La plataforma aprovecha tecnologb'/xc3/xad'as propias y de cb'/xc3/xb3'digo abierto de vanguardia para crear un sistema altamente configurable que puede adaptarse a las necesidades individuales del mercado rb'/xc3/xa1'pidamente y a bajo coste. b'/xc2/xa0' b'/xc2/xbf'Con quib'/xc3/xa9'n trabajarb'/xc3/xa1's?b'/xc2/xa0' Formarb'/xc3/xa1's parte de un equipo regional, participando de proyectos en Brasil, Chile y Mb'/xc3/xa9'xico. b'/xc2/xa0' b'/xc2/xbf'Cub'/xc3/xa1'ndo y db'/xc3/xb3'nde trabajarb'/xc3/xa1's? Vas a trabajar en un esquema de 9 a 18 hs. Si sos de Buenos Aires serb'/xc3/xa1' hb'/xc3/xad'brido con 4 db'/xc3/xad'as de home office y 1 db'/xc3/xad'a on site en oficinas de Microcentro. En el caso de vivir en otra provincia el esquema es 100% remoto. b'/xc2/xa0' b'/xc2/xbf'Qub'/xc3/xa9' ofrecen? Relacib'/xc3/xb3'n de dependencia directa.Un porcentaje del salario dolarizado.Prepaga para el/la empleado/a y grupo familiar primario.Posibilidad de Certificarse.Reintegro por gastos de conectividad (Se actualizarb'/xc3/xa1' perib'/xc3/xb3'dicamente).Db'/xc3/xad'a off de cumpleab'/xc3/xb1'os.Db'/xc3/xad'a de herencia cultura libre.Viernes flex a partir de las 14 pm.Seguro de vida adicional que corresponde por ley.Licencia por paternidad extendida.Soft Landing en licencias por maternidad.Pago b'/xc3/xba'nico por hijo para compra de b'/xc3/xba'tiles escolares.Asesoramiento impositivo.Check-up mb'/xc3/xa9'dico anual.Vacunacib'/xc3/xb3'n in company.Desayuno saludable en la oficina.Vacaciones por db'/xc3/xad'as hb'/xc3/xa1'biles.Reintegro por guarderb'/xc3/xad'as/jardb'/xc3/xad'n de infantes.Plataforma de e-learning para cursos de idiomas y training.Gimnasio in company.Estacionamiento.Descuentos en SportClub para empleados/as y grupo familiar primario, o reintegro de gastos por actividad fb'/xc3/xad'sica.Descuento en seguros (automotor, rodados y hogar).Club de beneficios. b'/xc2/xa0' b'/xc2/xbf'De qub'/xc3/xa9' fases consta el proceso de seleccib'/xc3/xb3'n?b'/xc2/xa0' Tendrb'/xc3/xa1's una primera entrevista con alguna de nuestras Recruiters, Rocb'/xc3/xad'o Albelob'/xc2/xa0'ob'/xc2/xa0'Carla Carrizo, para conocer tus experiencias laborales e intereses. Luego, participarb'/xc3/xa1's de una entrevista en inglb'/xc3/xa9's en la que estarb'/xc3/xa1'n los lb'/xc3/xad'deres tb'/xc3/xa9'cnicos y representantes de RH para que puedan conocerte.
Ver aviso
Colón-Buenos Aires (Buenos Aires)
Key responsibilities: Functions as principal developer - Support System Analysis, Technical/Data design and architecture, coding/unit testing, and oversee end-to-end data solution.Lends support to system analysis, design and end-to-end testing, and may manage a team of developers.Strong technical SME in Azure components b'/xe2/x80/x93' Azure Functions, ADF, Databricks, EventHub, Synapse, Datawarehouse, Cosmos, Azure SQL, ADLS, SPARK and SCALA programming (ALL BIG DATA ENGINEERING SKILLS)Performance tuning, framework design and development(OR) Functions as principal developer - Support System Analysis, Technical/Data design and architecture, coding/unit testing, and oversee end-to-end data solution.Lends support to system analysis, design, and end-to-end testing, and may manage a team of developers.Strong technical SME in GCP components b'/xe2/x80/x93' BigQuery, DataFlow, BigTable, GCS, DataForm, Python Scripting, EventHub, Kafka, Data Lakes, SQL, or SPARK and SCALA programming, TensorflowStrong CI/CD experience, ability to manage and deploy branches, automation of testing, (ALL BIG DATA ENGINEERING SKILLS) Beneficios: Prepaga Swiss Medical Premium 5 dias off luego de los 6 meses de antiguedad (validos de marzo a septiembre) Acceso a Udemy y LinkedIn learning para cursos y certificacionesRevisiones salariales cada 3 meses. Hibrida en Parque Patricios, CABA
Ver aviso
Nueve de Julio-Buenos Aires (Buenos Aires)
b'/xc2/xbf'Qub'/xc3/xa9' hace la compab'/xc3/xb1'b'/xc3/xad'a? Empresa lb'/xc3/xad'der en el sector de medios digitales de Argentina con una amplia trayectoria en el mercado, se destaca por ofrecer contenido periodb'/xc3/xad'stico de calidad y de actualidad a travb'/xc3/xa9's de su plataforma online. b'/xc2/xbf'Qub'/xc3/xa9' necesitb'/xc3/xa1's para ser parte del equipo? A nivel personal: Capacidad de colaborar y trabajar en equipo.Habilidades organizativas, de tiempo y de autogestib'/xc3/xb3'n.Orientacib'/xc3/xb3'n a los resultados.Enfoque analb'/xc3/xad'tico. A nivel tb'/xc3/xa9'cnico: Esperamos que hayas tenido la oportunidad de trabajar en roles similares por al menos 3 ab'/xc3/xb1'os.b'/xc2/xa0'Experiencia en diseb'/xc3/xb1'o, desarrollo e implementacib'/xc3/xb3'n de pipelines de datos en la nube | Si contb'/xc3/xa1's con experiencia en GCP es un plus.Manejo de base de datos SQL | Excluyente.b'/xc2/xa0'Experiencia con Python y Bash.b'/xc2/xa0'Conocimientos en herramientas de almacenamiento de datos como BigQuery, Data Lake o Cloud Storage. b'/xc2/xbf'Qub'/xc3/xa9' vas a hacer? Trabajar en el diseb'/xc3/xb1'o e implementacib'/xc3/xb3'n de pipelines de datos.b'/xc2/xa0'Transformar y limpiar los datos de diversas fuentes velando por la calidad, seguridad e integridad de los mismos.b'/xc2/xa0'Cargar datos en sistemas de almacenamiento como BigQuery, Cloud Storage o Data Lake.b'/xc2/xa0'Gestionar y optimizar el almacenamiento de datos en la nube.b'/xc2/xa0'Monitorear el rendimiento de los pipelines de datos y sistemas de almacenamiento.b'/xc2/xa0'Automatizar tareas y procesos complejos.b'/xc2/xa0'Desarrollar scripts.b'/xc2/xa0'Conectar y extraer datos de diversas fuentes (Bases de datos relacionales y no relacionales, sistemas de archivos, APIs y plataformas Saas) b'/xc2/xbf'Cub'/xc3/xa1'l es el desafb'/xc3/xad'o de la posicib'/xc3/xb3'n?b'/xc2/xa0' Tendrb'/xc3/xa1's la posibilidad de sumarte al medio digital de idioma espab'/xc3/xb1'ol mb'/xc3/xa1's leb'/xc3/xad'do a nivel mundial. Se encuentran armando la nueva estructura de datos y buscan ampliar el equipo para co-crear y aportar en conjunto. b'/xc2/xbf'Cub'/xc3/xa1'ndo y db'/xc3/xb3'nde trabajarb'/xc3/xa1's? Trabajarb'/xc3/xa1's en una modalidad 100% virtual desde cualquier parte de Argentina. El horario es de lunes a viernes de 9 a 18 hs. b'/xc2/xbf'Qub'/xc3/xa9' ofrecen? Home Office.Relacib'/xc3/xb3'n de dependencia directa.Plataforma de descuentos/beneficios.Prepaga para empleado/a y grupo familiar.Proyeccib'/xc3/xb3'n de carrera. b'/xc2/xbf'De qub'/xc3/xa9' fases consta el proceso de seleccib'/xc3/xb3'n?b'/xc2/xa0' Tendrb'/xc3/xa1's una primera entrevista con nuestra Recruiter, Mariana Herrero, para conocer tus experiencias laborales e intereses. Luego, con la empresa empleadora tendrb'/xc3/xa1's dos instancias de entrevista (Primero tb'/xc3/xa9'cnica y luego con RRHH) b'/xc2/xa0'
Ver aviso
Nueve de Julio-Buenos Aires (Buenos Aires)
Somosb'/xc2/xa0'IT Patagonia, un equipo que brinda soluciones en la industria del conocimiento con impacto positivo. Llevamos 30 ab'/xc3/xb1'os liderando procesos de evolucib'/xc3/xb3'n tecnolb'/xc3/xb3'gica brindando soluciones para potenciar el funcionamiento de las organizaciones y el desarrollo de las personas que las componen. Queremos ser una mejor empresa para el mundo y sabemos que los mejores resultados se alcanzan de manera colaborativa. Por eso crecemos, innovamos y evolucionamos juntos.Estamos reforzando el equipo y buscamosb'/xc2/xa0'unb'/xc2/xa0'Software Engineer Sr que se sume a la comunidad de IT Patagonia. #Bepatagonianb'/xc2/xa0'Skills tb'/xc3/xa9'cnicos excluyentes: Experiencia comprobable de mb'/xc3/xa1's de 5 ab'/xc3/xb1'os con PHP, Node.js, AWS, Docker, Metodologb'/xc3/xad'as b'/xc3/x81'giles.Principales responsabilidades:● Colaborar con equipos multifuncionales para recopilar y analizar requisitos y traducirlos en especificaciones tb'/xc3/xa9'cnicas y diseb'/xc3/xb1'os.● Diseb'/xc3/xb1'ar, desarrollar y mantener aplicaciones de software sb'/xc3/xb3'lidas y escalables utilizando PHP, Node.js y otras tecnologb'/xc3/xad'as relevantes.● Implementar cb'/xc3/xb3'digo eficiente y seguro que siga las mejores prb'/xc3/xa1'cticas de la industria y estb'/xc3/xa1'ndares de codificacib'/xc3/xb3'n.● Realizar pruebas y depuraciones exhaustivas para garantizar la calidad y rendimiento del software.● Colaborar con equipos de Infra para implementar y mantener aplicaciones en AWS infraestructura.● Orientar y brindar orientacib'/xc3/xb3'n tb'/xc3/xa9'cnica a ingenieros jb'/xc3/xb3'venes, promoviendo intercambio de conocimientos y aprendizaje continuo.● Optimice las aplicaciones de software para obtener el mb'/xc3/xa1'ximo rendimiento y escalabilidad.Requisitos:● Licenciatura o Maestrb'/xc3/xad'a en Ciencias de la Computacib'/xc3/xb3'n, Ingenierb'/xc3/xad'a de Software, o un campo relacionado. Con conocimientos avanzados en algoritmos,● Experiencia comprobada (mb'/xc3/xa1's de 5 ab'/xc3/xb1'os) como ingeniero de software, con enfoque en PHP y desarrollo de Node.js.● Gran dominio de PHP, Node.js y TypeScript, con una profunda comprensib'/xc3/xb3'n de sus respectivos ecosistemas y marcos (por ejemplo, Laravel, Symfony, Express.js, Yarn, Composer, APCu, etcb'/xe2/x80/xa6').● Amplio conocimiento de los servicios de AWS y experiencia en diseb'/xc3/xb1'o, crear y mantener aplicaciones escalables en AWS. Incluyendo SQS, SNS, Cognito y Lambdas.● Comprensib'/xc3/xb3'n sb'/xc3/xb3'lida de las metodologb'/xc3/xad'as de prueba de software, incluida la unidad, pruebas de integracib'/xc3/xb3'n y marcos de pruebas automatizadas (por ejemplo, PHPUnit, Mockery, Mocha, Jest).● Conocimiento sb'/xc3/xb3'lido de tecnologb'/xc3/xad'as de contenedores como Docker y Docker.● Competencia para trabajar con bases de datos, tanto relacionales (por ejemplo, MySQL, PostgreSQL) y NoSQL (por ejemplo, MongoDB, DynamoDB, Redis, ElasticSearch).● Familiaridad con los patrones de diseb'/xc3/xb1'o y principios arquitectb'/xc3/xb3'nicos a desarrollar cb'/xc3/xb3'digo mantenible y extensible.● Fuertes habilidades para resolver problemas y la capacidad de depurar.● Sb'/xc3/xb3'lida experiencia en optimizacib'/xc3/xb3'n de cb'/xc3/xb3'digo, consultas de bases de datos y herramientas de pruebas de estrb'/xc3/xa9's para rendimiento y escalabilidad.● Excelentes habilidades de trabajo en equipo y comunicacib'/xc3/xb3'n, con capacidad de colaborar eficazmente con equipos multifuncionales.● Un enfoque proactivo y motivado para aprender y mantenerse actualizado con tecnologb'/xc3/xad'as emergentes y tendencias de la industria.Habilidades preferidas:● Experiencia con tecnologb'/xc3/xad'as de contenerizacib'/xc3/xb3'n y orquestacib'/xc3/xb3'n, como Kubernetes.● Conocimiento de tecnologb'/xc3/xad'as front-end como HTML, CSS y JavaScript marcos (por ejemplo, React, Angular, Vue.js).● Familiaridad con metodologb'/xc3/xad'as y herramientas de desarrollo b'/xc3/xa1'gil (p. ej., Scrum, JIRA).● Comprensib'/xc3/xb3'n de las canalizaciones de CI/CD y herramientas relacionadas (por ejemplo, Bash, Jenkins, GitLab CI/CD).● Experiencia con herramientas de optimizacib'/xc3/xb3'n y supervisib'/xc3/xb3'n del rendimiento (p. ej., Nuevas Reliquia, Datadog).b'/xc2/xa0'Somos #empresaB, comprometidos con un sistema econb'/xc3/xb3'mico que beneficia al planeta y a todas las personas. Fomentamos una cultura inclusiva porque consideramos que la diversidad agrega valor a todo lo que hacemos. Queremos que todas las personas se sientan parte y generamos un espacio basado en la colaboracib'/xc3/xb3'n, la pluralidad, la diversidad y la innovacib'/xc3/xb3'n continua. Queremos ser protagonistas en una sociedad mb'/xc3/xa1's responsable, justa e integrada. b'/xc2/xa1'Sumate a esta experiencia!
Ver aviso
Nueve de Julio-Buenos Aires (Buenos Aires)
Acerca de Cb'&'SSomos una empresa lb'/xc3/xad'der de tecnologb'/xc3/xad'a con mb'/xc3/xa1's de 38 ab'/xc3/xb1'os de presencia en el mercado IT. Brindamos soluciones a organizaciones que buscan aumentar su productividad y eficiencia construyendo relaciones de honestidad y transparencia tanto con nuestros clientes como con nuestro equipo de trabajo, con quienes compartimos y valoramos la pasib'/xc3/xb3'n por la tecnologb'/xc3/xad'a.b'/xc2/xa0'Skills Mandatorios: Experiencia comprobable en el desarrollo de jobs ETL y ELT, tanto en entornos on-premise como en la nube, preferentemente en cloud.Dominio de herramientas de ETL/ELT como NiFi, Glue, EMR o Informatica Cloud.Experiencia en la migracib'/xc3/xb3'n de procesos de datos desde entornos on-premise a la nube.Conocimientos en la ingesta y procesamiento de datos no estructurados en Data Lakes.Experiencia en el uso de Apache Spark o PySpark para el procesamiento distribuido de datos.Habilidades avanzadas en Python para el desarrollo de scripts y automatizaciones en el procesamiento de datos.Preferentemente con experiencia en AWS, aunque se valorarb'/xc3/xa1' conocimiento en otras plataformas cloud.Habilidades de resolucib'/xc3/xb3'n de problemas y capacidad para optimizar procesos de datos complejos.b'/xc2/xa0'Skills deseables: Certificaciones en AWS u otras plataformas de nube.Conocimientos en otras herramientas de integracib'/xc3/xb3'n y orquestacib'/xc3/xb3'n de datos.Experiencia en proyectos de migracib'/xc3/xb3'n a gran escala y optimizacib'/xc3/xb3'n de cargas de trabajo en la nube.Familiaridad con estrategias de gobernanza y seguridad de datos en entornos cloud.b'/xc2/xa0'Beneficios Revisiones salariales mb'/xc3/xad'nimas 4 veces al ab'/xc3/xb1'oEntrega de equipo de trabajoRegalo y db'/xc3/xad'a de cumpleab'/xc3/xb1'os libreReintegro por gastos de servicios (internet, luz) en compensacib'/xc3/xb3'n en el recibo de sueldoLicencia por paternidad extendidaDescuentos en universidades y cursos de idiomasPlataforma de capacitacib'/xc3/xb3'n online totalmente gratuita con certificacib'/xc3/xb3'n internacional.Cuponera de Cb'&'SCobertura mb'/xc3/xa9'dica (redireccib'/xc3/xb3'n del aporte)b'/xc2/xa1'Si buscas un lugar en donde puedas crecer profesionalmente y crees que tu perfil coincide con las caracterb'/xc3/xad'sticas que estamos buscando, no dudes en enviarnos tu CV!
Ver aviso
Rosario (Santa Fe)
For OZ, a leading digital solutions company, we're in search of a skilled and experienced Full-stack Azure Data Engineer eager to join our dynamic team. This role presents an exciting opportunity to play a pivotal role in designing, developing, and maintaining data pipelines and analytics solutions using the Azure cloud platform.Job Responsibilities:-Design, develop, and implement end-to-end data solutions using Azure cloud services.-Create data pipelines to ingest, process, and transform data from various sources into actionable insights.-Collaborate with cross-functional teams to understand data requirements and translate them into scalable solutions.-Optimize data workflows for high performance and reliability.-Implement security measures and data governance best practices to maintain data integrity.-Troubleshoot and resolve data-related issues promptly.Required Skills b'&' Experience:+ 3+ years of experience as a Data Engineer in an Azure cloud environment.+ Proficiency in Azure services such as Azure Data Factory, Azure Data Lakes, Azure Synapse, and PowerBI.+ Strong programming skills in Python, SQL, or Scala.+ Experience with data modeling, ETL processes, and data warehousing.+ Excellent problem-solving and analytical skills.+ Ability to work independently and collaboratively in a fast-paced environment.+ Effective communication skills with the ability to explain technical concepts to non-technical stakeholders.Preferred Qualifications:- Bachelorb'/xe2/x80/x99's degree in information science or related field.- Microsoft Azure certifications like Azure Data Engineer Associate.Benefits:* Work Equipment (PC and necessary equipment)* Discount Vouchers* Gifts on special occasions* Access to Udemy for taking courses* Bonuses for completed Official Certificationsb'/xc2/xa0'* Payment in USD* 100% Remote position- We offer competitive compensation, benefits, and ample opportunities for professional growth. Make a real impact in a dynamic environment where your contributions are valued. Join us and take your career to new heights!
Ver aviso

Avisos gratis para comprar y vender en Argentina | CLASF - copyright ©2025 www.clasf.com.ar.