-
loading
Solo con imagen

Etl data warehousing


Listado top ventas etl data warehousing

Nueve de Julio-Buenos Aires (Buenos Aires)
Qub'/xc3/xa9' hace la compab'/xc3/xb1'b'/xc3/xad'a? Es una reconocida compab'/xc3/xb1'b'/xc3/xad'a de EE.UU que brinda soluciones de proteccib'/xc3/xb3'n, ahorro, jubilacib'/xc3/xb3'n y beneficios en el mundo. Lideran el mercado de seguros y estb'/xc3/xa1'n presentes en mb'/xc3/xa1's de 40 pab'/xc3/xad'ses de Asia, Latam y EE.UU con mb'/xc3/xa1's de 49.000 colaboradores que le brindan servicio a mb'/xc3/xa1's de 90 millones de clientes. b'/xc2/xbf'Qub'/xc3/xa9' necesitb'/xc3/xa1's para ser parte del equipo? A nivel personal: Excelente trato interpersonal.Proactividad.Gran capacidad de anb'/xc3/xa1'lisis.Autonomb'/xc3/xad'a y compromiso.Capacidad para trabajar en equipo.Excelentes habilidades de comunicacib'/xc3/xb3'n: Capacidad demostrada para explicar contenido tb'/xc3/xa9'cnico complejo a audiencias tanto tb'/xc3/xa9'cnicas como no tb'/xc3/xa9'cnicas.Habilidades analb'/xc3/xad'ticas y de pensamiento crb'/xc3/xad'tico. A nivel tb'/xc3/xa9'cnico: Mb'/xc3/xa1's de 5 ab'/xc3/xb1'os de experiencia en desarrollo de ETL y data warehousing | Excluyente.Mb'/xc3/xa1's de 3 ab'/xc3/xb1'os de experiencia en el diseb'/xc3/xb1'o de ETL y lagos de datos en la nube o plataformas basadas en big data | Excluyente.Experiencia demostrada en la implementacib'/xc3/xb3'n y despliegue de centros de datos escalables y de alto rendimiento a escala global.Experiencia demostrada en tecnologb'/xc3/xad'as de bases de datos de b'/xc3/xba'ltima generacib'/xc3/xb3'n y servicios en la nube como Azure, GCP, Data Bricks o SnowFlake; experiencia profunda en tecnologb'/xc3/xad'as como Spark (Scala/python/Java), ADLS, Kafka, SQL, Synapse SQL, Cosmos DB, Graph DBs [en Azure use SPARK] | Excluyente.Experiencia prb'/xc3/xa1'ctica en implementacib'/xc3/xb3'n de almacenes de datos analb'/xc3/xad'ticos en la plataforma Azure utilizando ADLS/Azure data factory /Data Bricks y Cosmos DB (mongo/graph API) | Excluyente.Sb'/xc3/xb3'lidos conocimientos analb'/xc3/xad'ticos relacionados con el trabajo con conjuntos de datos no estructurados | Excluyente.Sb'/xc3/xb3'lidos conocimientos de SQL y habilidades de anb'/xc3/xa1'lisis de datos para la deteccib'/xc3/xb3'n de anomalb'/xc3/xad'as y el aseguramiento de la calidad de los datos | Excluyente.Ganas de aprender nuevas tecnologb'/xc3/xad'as sobre la marcha y llevarlas a produccib'/xc3/xb3'n.Experiencia demostrada en gestib'/xc3/xb3'n de la configuracib'/xc3/xb3'n, automatizacib'/xc3/xb3'n DevOps.b'/xc2/xa0'Experiencia de trabajo en programas empresariales complejos a gran escala, multiequipo y en metodologb'/xc3/xad'as de desarrollo b'/xc3/xa1'gil.Experiencia en implementacib'/xc3/xb3'n de soluciones, pruebas de rendimiento y ajuste; ADLS, base de datos Synapse SQL o gestib'/xc3/xb3'n de GCP Big Query y GCS y ajuste de rendimiento - Particionamiento / Bucketing | Excluyente. b'/xc2/xbf'Qub'/xc3/xa9' vas a hacer? Recopilar, almacenar, procesar y analizar grandes conjuntos de datos para construir e implementar procesos de extraccib'/xc3/xb3'n, transferencia y carga (ETL).Crear marcos y herramientas para desarrolladores, diseb'/xc3/xb1'ar materiales de formacib'/xc3/xb3'n, impartir formacib'/xc3/xb3'n para desarrolladores. Evangelizar nuevas ideas, estb'/xc3/xa1'ndares, mejores prb'/xc3/xa1'cticas y soluciones con la comunidad de desarrolladores y tb'/xc3/xa9'cnicos.Desarrollar cb'/xc3/xb3'digo de calidad con optimizaciones de rendimiento bien pensadas desde la fase de desarrollo.Ganas de aprender nuevas tecnologb'/xc3/xad'as y estar dispuesto a trabajar en nuevas tecnologb'/xc3/xad'as de vanguardia en la nube.Ingerir grandes volb'/xc3/xba'menes de datos de diversas plataformas para las necesidades y escribir cb'/xc3/xb3'digo ETL de alto rendimiento, fiable y mantenible.Interactuar con analistas de negocio y analistas funcionales para obtener los requisitos e implementar las soluciones ETL.Proporcionar apoyo tb'/xc3/xa9'cnico a los equipos de proyecto durante todo el ciclo de vida del proyecto en torno a plataformas tecnolb'/xc3/xb3'gicas, diseb'/xc3/xb1'o de soluciones, seguridad, depuracib'/xc3/xb3'n, creacib'/xc3/xb3'n de perfiles, ajuste del rendimiento, etc. b'/xc2/xbf'Cub'/xc3/xa1'l es el desafb'/xc3/xad'o de la posicib'/xc3/xb3'n?b'/xc2/xa0' En LATAM Data Hub (LDH), la misib'/xc3/xb3'n es construir la prb'/xc3/xb3'xima generacib'/xc3/xb3'n de data lake house para la compab'/xc3/xb1'b'/xc3/xad'a y ayudar a desplegarlo en varios pab'/xc3/xad'ses de LATAM. Han desarrollado una plataforma de clase mundial, nativa de la nube, para permitir la presentacib'/xc3/xb3'n de informes, anb'/xc3/xa1'lisis, canalizacib'/xc3/xb3'n de suministro de datos y suministro en tiempo real de los datos a diversos canales digitales y no digitales. La plataforma aprovecha tecnologb'/xc3/xad'as propias y de cb'/xc3/xb3'digo abierto de vanguardia para crear un sistema altamente configurable que puede adaptarse a las necesidades individuales del mercado rb'/xc3/xa1'pidamente y a bajo coste. La plataforma se ejecuta en un entorno en la nube elb'/xc3/xa1'stico y totalmente en contenedores, y estb'/xc3/xa1' diseb'/xc3/xb1'ada para escalar y dar servicio a millones de usuarios. b'/xc2/xbf'Con quib'/xc3/xa9'n trabajarb'/xc3/xa1's?b'/xc2/xa0' Formarb'/xc3/xa1's parte de un equipo regional, participando de proyectos en Brasil, Chile y Mb'/xc3/xa9'xico. b'/xc2/xbf'Cub'/xc3/xa1'ndo y db'/xc3/xb3'nde trabajarb'/xc3/xa1's? Vas a trabajar en un esquema de 9 a 18 hs. Si sos de Buenos Aires serb'/xc3/xa1' hb'/xc3/xad'brido con 4 db'/xc3/xad'as de home office y 1 db'/xc3/xad'a on site en oficinas de Microcentro. En el caso de vivir en otra provincia el esquema es 100% remoto. b'/xc2/xbf'Qub'/xc3/xa9' ofrecen? Relacib'/xc3/xb3'n de dependencia directa.Un porcentaje del salario dolarizado.Prepaga para el/la empleado/a y grupo familiar primario.Posibilidad de Certificarse.Reintegro por gastos de conectividad (Se actualizarb'/xc3/xa1' perib'/xc3/xb3'dicamente).Db'/xc3/xad'a off de cumpleab'/xc3/xb1'os.Db'/xc3/xad'a de herencia cultura libre.Viernes flex a partir de las 14 pm.Seguro de vida adicional que corresponde por ley.Licencia por paternidad extendida.Soft Landing en licencias por maternidad.Pago b'/xc3/xba'nico por hijo para compra de b'/xc3/xba'tiles escolares.Asesoramiento impositivo.Check-up mb'/xc3/xa9'dico anual.Vacunacib'/xc3/xb3'n in company.Desayuno saludable en la oficina.Vacaciones por db'/xc3/xad'as hb'/xc3/xa1'biles.Reintegro por guarderb'/xc3/xad'as/jardb'/xc3/xad'n de infantes.Plataforma de e-learning para cursos de idiomas y training.Gimnasio in company.Estacionamiento.Descuentos en SportClub para empleados/as y grupo familiar primario, o reintegro de gastos por actividad fb'/xc3/xad'sica.Descuento en seguros (automotor, rodados y hogar).Club de beneficios. b'/xc2/xbf'De qub'/xc3/xa9' fases consta el proceso de seleccib'/xc3/xb3'n?b'/xc2/xa0' Tendrb'/xc3/xa1's una primera entrevista con nuestra Recruiter, Rocb'/xc3/xad'o Albelo, para conocer tus experiencias laborales e intereses. Luego, participarb'/xc3/xa1's de una entrevista en inglb'/xc3/xa9's en la que estarb'/xc3/xa1'n los lb'/xc3/xad'deres tb'/xc3/xa9'cnicos y representantes de RH para que puedan conocerte.
Ver aviso
Nueve de Julio-Buenos Aires (Buenos Aires)
Qub'/xc3/xa9' hace la compab'/xc3/xb1'b'/xc3/xad'a? Es una reconocida compab'/xc3/xb1'b'/xc3/xad'a de EE.UU que brinda soluciones de proteccib'/xc3/xb3'n, ahorro, jubilacib'/xc3/xb3'n y beneficios en el mundo. Lideran el mercado de seguros y estb'/xc3/xa1'n presentes en mb'/xc3/xa1's de 40 pab'/xc3/xad'ses de Asia, Latam y EE.UU con mb'/xc3/xa1's de 49.000 colaboradores que le brindan servicio a mb'/xc3/xa1's de 90 millones de clientes. b'/xc2/xbf'Qub'/xc3/xa9' necesitb'/xc3/xa1's para ser parte del equipo? A nivel personal: Excelente trato interpersonal.Proactividad.Gran capacidad de anb'/xc3/xa1'lisis.Autonomb'/xc3/xad'a y compromiso.Capacidad para trabajar en equipo.Excelentes habilidades de comunicacib'/xc3/xb3'n: Capacidad demostrada para explicar contenido tb'/xc3/xa9'cnico complejo a audiencias tanto tb'/xc3/xa9'cnicas como no tb'/xc3/xa9'cnicas.Habilidades analb'/xc3/xad'ticas y de pensamiento crb'/xc3/xad'tico. A nivel tb'/xc3/xa9'cnico: Mb'/xc3/xa1's de 5 ab'/xc3/xb1'os de experiencia en desarrollo de ETL y data warehousing | Excluyente.Mb'/xc3/xa1's de 3 ab'/xc3/xb1'os de experiencia en el diseb'/xc3/xb1'o de ETL y lagos de datos en la nube o plataformas basadas en big data | Excluyente.Experiencia demostrada en la implementacib'/xc3/xb3'n y despliegue de centros de datos escalables y de alto rendimiento a escala global.Experiencia demostrada en tecnologb'/xc3/xad'as de bases de datos de b'/xc3/xba'ltima generacib'/xc3/xb3'n y servicios en la nube como Azure, GCP, Data Bricks o SnowFlake; experiencia profunda en tecnologb'/xc3/xad'as como Spark (Scala/python/Java), ADLS, Kafka, SQL, Synapse SQL, Cosmos DB, Graph DBs [en Azure use SPARK] | Excluyente.Experiencia prb'/xc3/xa1'ctica en implementacib'/xc3/xb3'n de almacenes de datos analb'/xc3/xad'ticos en la plataforma Azure utilizando ADLS/Azure data factory /Data Bricks y Cosmos DB (mongo/graph API) | Excluyente.Sb'/xc3/xb3'lidos conocimientos analb'/xc3/xad'ticos relacionados con el trabajo con conjuntos de datos no estructurados | Excluyente.Sb'/xc3/xb3'lidos conocimientos de SQL y habilidades de anb'/xc3/xa1'lisis de datos para la deteccib'/xc3/xb3'n de anomalb'/xc3/xad'as y el aseguramiento de la calidad de los datos | Excluyente.Ganas de aprender nuevas tecnologb'/xc3/xad'as sobre la marcha y llevarlas a produccib'/xc3/xb3'n.Experiencia demostrada en gestib'/xc3/xb3'n de la configuracib'/xc3/xb3'n, automatizacib'/xc3/xb3'n DevOps.b'/xc2/xa0'Experiencia de trabajo en programas empresariales complejos a gran escala, multiequipo y en metodologb'/xc3/xad'as de desarrollo b'/xc3/xa1'gil.Experiencia en implementacib'/xc3/xb3'n de soluciones, pruebas de rendimiento y ajuste; ADLS, base de datos Synapse SQL o gestib'/xc3/xb3'n de GCP Big Query y GCS y ajuste de rendimiento - Particionamiento / Bucketing | Excluyente. b'/xc2/xbf'Qub'/xc3/xa9' vas a hacer? Recopilar, almacenar, procesar y analizar grandes conjuntos de datos para construir e implementar procesos de extraccib'/xc3/xb3'n, transferencia y carga (ETL).Crear marcos y herramientas para desarrolladores, diseb'/xc3/xb1'ar materiales de formacib'/xc3/xb3'n, impartir formacib'/xc3/xb3'n para desarrolladores. Evangelizar nuevas ideas, estb'/xc3/xa1'ndares, mejores prb'/xc3/xa1'cticas y soluciones con la comunidad de desarrolladores y tb'/xc3/xa9'cnicos.Desarrollar cb'/xc3/xb3'digo de calidad con optimizaciones de rendimiento bien pensadas desde la fase de desarrollo.Ganas de aprender nuevas tecnologb'/xc3/xad'as y estar dispuesto a trabajar en nuevas tecnologb'/xc3/xad'as de vanguardia en la nube.Ingerir grandes volb'/xc3/xba'menes de datos de diversas plataformas para las necesidades y escribir cb'/xc3/xb3'digo ETL de alto rendimiento, fiable y mantenible.Interactuar con analistas de negocio y analistas funcionales para obtener los requisitos e implementar las soluciones ETL.Proporcionar apoyo tb'/xc3/xa9'cnico a los equipos de proyecto durante todo el ciclo de vida del proyecto en torno a plataformas tecnolb'/xc3/xb3'gicas, diseb'/xc3/xb1'o de soluciones, seguridad, depuracib'/xc3/xb3'n, creacib'/xc3/xb3'n de perfiles, ajuste del rendimiento, etc. b'/xc2/xbf'Cub'/xc3/xa1'l es el desafb'/xc3/xad'o de la posicib'/xc3/xb3'n?b'/xc2/xa0' En LATAM Data Hub (LDH), la misib'/xc3/xb3'n es construir la prb'/xc3/xb3'xima generacib'/xc3/xb3'n de data lake house para la compab'/xc3/xb1'b'/xc3/xad'a y ayudar a desplegarlo en varios pab'/xc3/xad'ses de LATAM. Han desarrollado una plataforma de clase mundial, nativa de la nube, para permitir la presentacib'/xc3/xb3'n de informes, anb'/xc3/xa1'lisis, canalizacib'/xc3/xb3'n de suministro de datos y suministro en tiempo real de los datos a diversos canales digitales y no digitales. La plataforma aprovecha tecnologb'/xc3/xad'as propias y de cb'/xc3/xb3'digo abierto de vanguardia para crear un sistema altamente configurable que puede adaptarse a las necesidades individuales del mercado rb'/xc3/xa1'pidamente y a bajo coste. La plataforma se ejecuta en un entorno en la nube elb'/xc3/xa1'stico y totalmente en contenedores, y estb'/xc3/xa1' diseb'/xc3/xb1'ada para escalar y dar servicio a millones de usuarios. b'/xc2/xbf'Con quib'/xc3/xa9'n trabajarb'/xc3/xa1's?b'/xc2/xa0' Formarb'/xc3/xa1's parte de un equipo regional, participando de proyectos en Brasil, Chile y Mb'/xc3/xa9'xico. b'/xc2/xbf'Cub'/xc3/xa1'ndo y db'/xc3/xb3'nde trabajarb'/xc3/xa1's? Vas a trabajar en un esquema de 9 a 18 hs. Si sos de Buenos Aires serb'/xc3/xa1' hb'/xc3/xad'brido con 4 db'/xc3/xad'as de home office y 1 db'/xc3/xad'a on site en oficinas de Microcentro. En el caso de vivir en otra provincia el esquema es 100% remoto. b'/xc2/xbf'Qub'/xc3/xa9' ofrecen? Relacib'/xc3/xb3'n de dependencia directa.Un porcentaje del salario dolarizado.Prepaga para el/la empleado/a y grupo familiar primario.Posibilidad de Certificarse.Reintegro por gastos de conectividad (Se actualizarb'/xc3/xa1' perib'/xc3/xb3'dicamente).Db'/xc3/xad'a off de cumpleab'/xc3/xb1'os.Db'/xc3/xad'a de herencia cultura libre.Viernes flex a partir de las 14 pm.Seguro de vida adicional que corresponde por ley.Licencia por paternidad extendida.Soft Landing en licencias por maternidad.Pago b'/xc3/xba'nico por hijo para compra de b'/xc3/xba'tiles escolares.Asesoramiento impositivo.Check-up mb'/xc3/xa9'dico anual.Vacunacib'/xc3/xb3'n in company.Desayuno saludable en la oficina.Vacaciones por db'/xc3/xad'as hb'/xc3/xa1'biles.Reintegro por guarderb'/xc3/xad'as/jardb'/xc3/xad'n de infantes.Plataforma de e-learning para cursos de idiomas y training.Gimnasio in company.Estacionamiento.Descuentos en SportClub para empleados/as y grupo familiar primario, o reintegro de gastos por actividad fb'/xc3/xad'sica.Descuento en seguros (automotor, rodados y hogar).Club de beneficios. b'/xc2/xbf'De qub'/xc3/xa9' fases consta el proceso de seleccib'/xc3/xb3'n?b'/xc2/xa0' Tendrb'/xc3/xa1's una primera entrevista con alguna de nuestras Recruiters, Rocb'/xc3/xad'o Albelob'/xc2/xa0'ob'/xc2/xa0'Carla Carrizo, para conocer tus experiencias laborales e intereses. Luego, participarb'/xc3/xa1's de una entrevista en inglb'/xc3/xa9's en la que estarb'/xc3/xa1'n los lb'/xc3/xad'deres tb'/xc3/xa9'cnicos y representantes de RH para que puedan conocerte.
Ver aviso
Nueve de Julio-Buenos Aires (Buenos Aires)
b'/xc2/xbf'Qub'/xc3/xa9' hace la compab'/xc3/xb1'b'/xc3/xad'a? b'/xc2/xa0' Es una reconocida compab'/xc3/xb1'b'/xc3/xad'a de EE.UU que brinda soluciones de proteccib'/xc3/xb3'n, ahorro, jubilacib'/xc3/xb3'n y beneficios en el mundo.b'/xc2/xa0' b'/xc2/xa0' b'/xc2/xbf'Qub'/xc3/xa9' necesitb'/xc3/xa1's para ser parte del equipo? A nivel personal: Excelente trato interpersonal.Proactividad.Gran capacidad de anb'/xc3/xa1'lisis.Autonomb'/xc3/xad'a y compromiso.Capacidad para trabajar en equipo.Excelentes habilidades de comunicacib'/xc3/xb3'n: Capacidad demostrada para explicar contenido tb'/xc3/xa9'cnico complejo a audiencias tanto tb'/xc3/xa9'cnicas como no tb'/xc3/xa9'cnicas.Habilidades analb'/xc3/xad'ticas y de pensamiento crb'/xc3/xad'tico. A nivel tb'/xc3/xa9'cnico: Mb'/xc3/xa1's de 5 ab'/xc3/xb1'os de experiencia en desarrollo de ETL y data warehousing | Excluyente.Mb'/xc3/xa1's de 3 ab'/xc3/xb1'os de experiencia en el diseb'/xc3/xb1'o de ETL y lagos de datos en la nube o plataformas basadas en big data | Excluyente.Experiencia demostrada en la implementacib'/xc3/xb3'n y despliegue de centros de datos escalables y de alto rendimiento a escala global.Experiencia demostrada en tecnologb'/xc3/xad'as de bases de datos de b'/xc3/xba'ltima generacib'/xc3/xb3'n y servicios en la nube como Azure, GCP, Data Bricks o SnowFlake; experiencia profunda en tecnologb'/xc3/xad'as como Spark (Scala/python/Java), ADLS, Kafka, SQL, Synapse SQL, Cosmos DB, Graph DBs [en Azure use SPARK] | Excluyente. b'/xc2/xa0' b'/xc2/xbf'Qub'/xc3/xa9' vas a hacer? Recopilar, almacenar, procesar y analizar grandes conjuntos de datos para construir e implementar procesos de extraccib'/xc3/xb3'n, transferencia y carga (ETL).Crear marcos y herramientas para desarrolladores, diseb'/xc3/xb1'ar materiales de formacib'/xc3/xb3'n, impartir formacib'/xc3/xb3'n para desarrolladores. Evangelizar nuevas ideas, estb'/xc3/xa1'ndares, mejores prb'/xc3/xa1'cticas y soluciones con la comunidad de desarrolladores y tb'/xc3/xa9'cnicos.Desarrollar cb'/xc3/xb3'digo de calidad con optimizaciones de rendimiento bien pensadas desde la fase de desarrollo.Ganas de aprender nuevas tecnologb'/xc3/xad'as y estar dispuesto a trabajar en nuevas tecnologb'/xc3/xad'as de vanguardia en la nube.Ingerir grandes volb'/xc3/xba'menes de datos de diversas plataformas para las necesidades y escribir cb'/xc3/xb3'digo ETL de alto rendimiento, fiable y mantenible.Interactuar con analistas de negocio y analistas funcionales para obtener los requisitos e implementar las soluciones ETL.Proporcionar apoyo tb'/xc3/xa9'cnico a los equipos de proyecto durante todo el ciclo de vida del proyecto en torno a plataformas tecnolb'/xc3/xb3'gicas, diseb'/xc3/xb1'o de soluciones, seguridad, depuracib'/xc3/xb3'n, creacib'/xc3/xb3'n de perfiles, ajuste del rendimiento, etc. b'/xc2/xa0' b'/xc2/xbf'Cub'/xc3/xa1'l es el desafb'/xc3/xad'o de la posicib'/xc3/xb3'n?b'/xc2/xa0' En LATAM Data Hub (LDH), la misib'/xc3/xb3'n es construir la prb'/xc3/xb3'xima generacib'/xc3/xb3'n de data lake house para la compab'/xc3/xb1'b'/xc3/xad'a y ayudar a desplegarlo en varios pab'/xc3/xad'ses de LATAM. Han desarrollado una plataforma de clase mundial, nativa de la nube, para permitir la presentacib'/xc3/xb3'n de informes, anb'/xc3/xa1'lisis, canalizacib'/xc3/xb3'n de suministro de datos y suministro en tiempo real de los datos a diversos canales digitales y no digitales. La plataforma aprovecha tecnologb'/xc3/xad'as propias y de cb'/xc3/xb3'digo abierto de vanguardia para crear un sistema altamente configurable que puede adaptarse a las necesidades individuales del mercado rb'/xc3/xa1'pidamente y a bajo coste. b'/xc2/xa0' b'/xc2/xbf'Con quib'/xc3/xa9'n trabajarb'/xc3/xa1's?b'/xc2/xa0' Formarb'/xc3/xa1's parte de un equipo regional, participando de proyectos en Brasil, Chile y Mb'/xc3/xa9'xico. b'/xc2/xa0' b'/xc2/xbf'Cub'/xc3/xa1'ndo y db'/xc3/xb3'nde trabajarb'/xc3/xa1's? Vas a trabajar en un esquema de 9 a 18 hs. Si sos de Buenos Aires serb'/xc3/xa1' hb'/xc3/xad'brido con 4 db'/xc3/xad'as de home office y 1 db'/xc3/xad'a on site en oficinas de Microcentro. En el caso de vivir en otra provincia el esquema es 100% remoto. b'/xc2/xa0' b'/xc2/xbf'Qub'/xc3/xa9' ofrecen? Relacib'/xc3/xb3'n de dependencia directa.Un porcentaje del salario dolarizado.Prepaga para el/la empleado/a y grupo familiar primario.Posibilidad de Certificarse.Reintegro por gastos de conectividad (Se actualizarb'/xc3/xa1' perib'/xc3/xb3'dicamente).Db'/xc3/xad'a off de cumpleab'/xc3/xb1'os.Db'/xc3/xad'a de herencia cultura libre.Viernes flex a partir de las 14 pm.Seguro de vida adicional que corresponde por ley.Licencia por paternidad extendida.Soft Landing en licencias por maternidad.Pago b'/xc3/xba'nico por hijo para compra de b'/xc3/xba'tiles escolares.Asesoramiento impositivo.Check-up mb'/xc3/xa9'dico anual.Vacunacib'/xc3/xb3'n in company.Desayuno saludable en la oficina.Vacaciones por db'/xc3/xad'as hb'/xc3/xa1'biles.Reintegro por guarderb'/xc3/xad'as/jardb'/xc3/xad'n de infantes.Plataforma de e-learning para cursos de idiomas y training.Gimnasio in company.Estacionamiento.Descuentos en SportClub para empleados/as y grupo familiar primario, o reintegro de gastos por actividad fb'/xc3/xad'sica.Descuento en seguros (automotor, rodados y hogar).Club de beneficios. b'/xc2/xa0' b'/xc2/xbf'De qub'/xc3/xa9' fases consta el proceso de seleccib'/xc3/xb3'n?b'/xc2/xa0' Tendrb'/xc3/xa1's una primera entrevista con alguna de nuestras Recruiters, Rocb'/xc3/xad'o Albelob'/xc2/xa0'ob'/xc2/xa0'Carla Carrizo, para conocer tus experiencias laborales e intereses. Luego, participarb'/xc3/xa1's de una entrevista en inglb'/xc3/xa9's en la que estarb'/xc3/xa1'n los lb'/xc3/xad'deres tb'/xc3/xa9'cnicos y representantes de RH para que puedan conocerte.
Ver aviso
Nueve de Julio-Buenos Aires (Buenos Aires)
b'/xc2/xa0' b'/xc2/xbf'Qub'/xc3/xa9' hace la compab'/xc3/xb1'b'/xc3/xad'a? Es una reconocida compab'/xc3/xb1'b'/xc3/xad'a de EE.UU que brinda soluciones de proteccib'/xc3/xb3'n, ahorro, jubilacib'/xc3/xb3'n y beneficios en el mundo.b'/xc2/xa0'Lideran el mercado de seguros y estb'/xc3/xa1'n presentes en mb'/xc3/xa1's de 40 pab'/xc3/xad'ses de Asia, Latam y EE.UU con mb'/xc3/xa1's de 49.000 colaboradores que le brindan servicio a mb'/xc3/xa1's de 90 millones de clientes. b'/xc2/xbf'Qub'/xc3/xa9' necesitb'/xc3/xa1's para ser parte del equipo? A nivel personal: Excelente trato interpersonal.Proactividad.Gran capacidad de anb'/xc3/xa1'lisis.Autonomb'/xc3/xad'a y compromiso.Capacidad para trabajar en equipo.Excelentes habilidades de comunicacib'/xc3/xb3'n:b'/xc2/xa0'Capacidad demostrada para explicar contenido tb'/xc3/xa9'cnico complejo a audiencias tanto tb'/xc3/xa9'cnicas como no tb'/xc3/xa9'cnicas.Habilidades analb'/xc3/xad'ticas y de pensamiento crb'/xc3/xad'tico. A nivel tb'/xc3/xa9'cnico: Mb'/xc3/xa1's de 3 ab'/xc3/xb1'os de experiencia en desarrollo de ETL y data warehousingb'/xc2/xa0'| Excluyente.Mb'/xc3/xa1's de 3 ab'/xc3/xb1'os de experiencia en el diseb'/xc3/xb1'o de ETL y datalake en la nube o plataformas basadas en big datab'/xc2/xa0'| Excluyente.Experiencia demostrada en lab'/xc2/xa0'implementacib'/xc3/xb3'n y despliegue de centros de datos escalables y de alto rendimiento a escala global.Experiencia demostrada enb'/xc2/xa0'tecnologb'/xc3/xad'as de bases de datos de b'/xc3/xba'ltima generacib'/xc3/xb3'n y servicios en la nubeb'/xc2/xa0'como Azure, GCP, AWS, Data Bricks o SnowFlake; experiencia profunda en tecnologb'/xc3/xad'as como Spark (Scala/python/Java), ADLS, Kafka, SQL, Synapse SQL, Cosmos DB, Graph DBs [en Azure use SPARK] | Excluyente.Experiencia prb'/xc3/xa1'ctica enb'/xc2/xa0'implementacib'/xc3/xb3'n de almacenes de datos analb'/xc3/xad'ticosb'/xc2/xa0'en plataformas cloud (Azure, GCP o AWS) utilizando ADLS/Azure data factory /Data Bricks y Cosmos DB (mongo/graph API) | Excluyente.Sb'/xc3/xb3'lidos conocimientos analb'/xc3/xad'ticos relacionados con elb'/xc2/xa0'trabajo con conjuntos de datos no estructuradosb'/xc2/xa0'| Excluyente.Sb'/xc3/xb3'lidos conocimientos deb'/xc2/xa0'SQL y habilidades de anb'/xc3/xa1'lisis de datosb'/xc2/xa0'para la deteccib'/xc3/xb3'n de anomalb'/xc3/xad'as y el aseguramiento de la calidad de los datos | Excluyente.Ganas de aprender nuevas tecnologb'/xc3/xad'asb'/xc2/xa0'sobre la marcha y llevarlas a produccib'/xc3/xb3'n.Experiencia demostrada enb'/xc2/xa0'gestib'/xc3/xb3'n de la configuracib'/xc3/xb3'n, automatizacib'/xc3/xb3'n DevOps.b'/xc2/xa0'Experiencia de trabajo enb'/xc2/xa0'programas empresariales complejos a gran escala, multiequipo y en metodologb'/xc3/xad'as de desarrollo b'/xc3/xa1'gil.Experiencia enb'/xc2/xa0'implementacib'/xc3/xb3'n de soluciones, pruebas de rendimiento y ajuste; ADLS, base de datos Synapse SQL o gestib'/xc3/xb3'n de GCP Big Query y GCS y ajuste de rendimiento b'/xe2/x80/x93' Particionamiento / Bucketing | Deseable. b'/xc2/xbf'Qub'/xc3/xa9' vas a hacer? Recopilar, almacenar, procesar y analizar grandes conjuntos de datosb'/xc2/xa0'para construir e implementar procesos de extraccib'/xc3/xb3'n, transferencia y carga (ETL).Crear marcos y herramientasb'/xc2/xa0'para desarrolladores, diseb'/xc3/xb1'ar materiales de formacib'/xc3/xb3'n, impartir formacib'/xc3/xb3'n para desarrolladores. Evangelizar nuevas ideas, estb'/xc3/xa1'ndares, mejores prb'/xc3/xa1'cticas y soluciones con la comunidad de desarrolladores y tb'/xc3/xa9'cnicos.Desarrollar cb'/xc3/xb3'digo de calidadb'/xc2/xa0'con optimizaciones de rendimiento bien pensadas desde la fase de desarrollo.Ganas de aprenderb'/xc2/xa0'nuevas tecnologb'/xc3/xad'as y estar dispuesto a trabajar en nuevas tecnologb'/xc3/xad'as de vanguardia en la nube.Ingerir grandes volb'/xc3/xba'menes de datos de diversas plataformasb'/xc2/xa0'para las necesidades y escribir cb'/xc3/xb3'digo ETL de alto rendimiento, fiable y mantenible.Interactuar con analistas de negocio y analistas funcionalesb'/xc2/xa0'para obtener los requisitos e implementar las soluciones ETL.Proporcionar apoyo tb'/xc3/xa9'cnicob'/xc2/xa0'a los equipos de proyecto durante todo el ciclo de vida del proyecto en torno a plataformas tecnolb'/xc3/xb3'gicas, diseb'/xc3/xb1'o de soluciones, seguridad, depuracib'/xc3/xb3'n, creacib'/xc3/xb3'n de perfiles, ajuste del rendimiento, etc. b'/xc2/xbf'Cub'/xc3/xa1'l es el desafb'/xc3/xad'o de la posicib'/xc3/xb3'n?b'/xc2/xa0' En LATAM Data Hub (LDH), la misib'/xc3/xb3'n esb'/xc2/xa0'construir la prb'/xc3/xb3'xima generacib'/xc3/xb3'n de data lake house para la compab'/xc3/xb1'b'/xc3/xad'ab'/xc2/xa0'y ayudar a desplegarlo en varios pab'/xc3/xad'ses de LATAM. Han desarrollado unab'/xc2/xa0'plataforma de clase mundial, nativa de la nube, para permitir la presentacib'/xc3/xb3'n de informes, anb'/xc3/xa1'lisis, canalizacib'/xc3/xb3'n de suministro de datos y suministro en tiempo real de los datos a diversos canales digitales y no digitales. La plataforma aprovecha tecnologb'/xc3/xad'as propias y de cb'/xc3/xb3'digo abierto de vanguardia para crear un sistema altamente configurable que puede adaptarse a las necesidades individuales del mercado rb'/xc3/xa1'pidamente y a bajo coste. La plataforma se ejecuta en un entorno en la nube elb'/xc3/xa1'stico y totalmente en contenedores, y estb'/xc3/xa1' diseb'/xc3/xb1'ada para escalar y dar servicio a millones de usuarios. b'/xc2/xbf'Con quib'/xc3/xa9'n trabajarb'/xc3/xa1's?b'/xc2/xa0' Formarb'/xc3/xa1's parte de unb'/xc2/xa0'equipo regional, participando de proyectos en Brasil, Chile y Mb'/xc3/xa9'xico. b'/xc2/xbf'Cub'/xc3/xa1'ndo y db'/xc3/xb3'nde trabajarb'/xc3/xa1's? Vas a trabajar en un esquema deb'/xc2/xa0'9 a 18 hsb'/xc2/xa0'con 4 db'/xc3/xad'as de home office y 1 db'/xc3/xad'a on siteb'/xc2/xa0'en oficinas de Microcentro. El esquema a demanda del sector, por lo que es probable que algunas semanas sea 100% remoto. b'/xc2/xbf'Qub'/xc3/xa9' ofrecen? Relacib'/xc3/xb3'n de dependencia directa.Un porcentaje del salario dolarizado.Prepaga para el/la empleado/a y grupo familiar primario.Posibilidad deb'/xc2/xa0'Certificarse.Reintegro por gastos de conectividadb'/xc2/xa0'(Se actualizarb'/xc3/xa1' perib'/xc3/xb3'dicamente).Db'/xc3/xad'a off de cumpleab'/xc3/xb1'os.Db'/xc3/xad'a de herencia cultura libre.Viernes flexb'/xc2/xa0'a partir de las 14 pm.Seguro de vida adicional que corresponde por ley.Licencia por paternidad extendida.Soft Landingb'/xc2/xa0'en licencias por maternidad.Pago b'/xc3/xba'nico por hijo para compra de b'/xc3/xba'tiles escolares.Asesoramiento impositivo.Check-up mb'/xc3/xa9'dico anual.Vacunacib'/xc3/xb3'n in company.Desayuno saludableb'/xc2/xa0'en la oficina.Vacaciones por db'/xc3/xad'as hb'/xc3/xa1'biles.Reintegro por guarderb'/xc3/xad'as/jardb'/xc3/xad'n de infantes.Plataforma de e-learningb'/xc2/xa0'para cursos de idiomas yb'/xc2/xa0'training.Gimnasio in company.Estacionamiento.Descuentos en SportClubb'/xc2/xa0'para empleados/as y grupo familiar primario, o reintegro de gastos por actividad fb'/xc3/xad'sica.Descuento en segurosb'/xc2/xa0'(automotor, rodados y hogar).Club de beneficios. b'/xc2/xbf'De qub'/xc3/xa9' fases consta el proceso de seleccib'/xc3/xb3'n?b'/xc2/xa0' Tendrb'/xc3/xa1's unab'/xc2/xa0'primera entrevista conb'/xc2/xa0'alguna de nuestras Recruiters,b'/xc2/xa0'Rocb'/xc3/xad'o Albelob'/xc2/xa0'ob'/xc2/xa0'Carla Carrizo b'/xc3/x81'lvarez, para conocer tus experiencias laborales e intereses. Luego, participarb'/xc3/xa1's de unab'/xc2/xa0'entrevista en inglb'/xc3/xa9's en la que estarb'/xc3/xa1'n los lb'/xc3/xad'deres tb'/xc3/xa9'cnicos y representantes de RH para que puedan conocerte.
Ver aviso
Nueve de Julio-Buenos Aires (Buenos Aires)
En Paradigma, compab'/xc3/xb1'b'/xc3/xad'a nacional lb'/xc3/xad'der en el mercado de la consultorb'/xc3/xad'a en Management, Procesos, Tecnologb'/xc3/xad'a y Personas, buscamos sumar perfiles que se desarrollen en el b'/xc3/xa1'rea digital de un importante cliente: b'/xc2/xa0' b'/xc2/xa0' Sr Data Engineers ETL b'/xc2/xa0' ALGUNAS RESPONSABILIDADES b'/xc2/xa0' Actividades de arquitectura de datos, procesos ETL, documentacib'/xc3/xb3'n de fuentes y modelado de datos sobre el Modelo Lb'/xc3/xb3'gico de industria financiero Teradata.Gestib'/xc3/xb3'n de la demanda e implementacib'/xc3/xb3'n de prb'/xc3/xa1'cticas de data b'&' analytics, data management y campaing management.Funciones de optimizacib'/xc3/xb3'n de la calidad de datos y procesos.Identificar puntos de dolor actuales y soluciones a desarrollar.Automatizacib'/xc3/xb3'n y orquestacib'/xc3/xb3'n del ciclo de vida de los datos y la implementacib'/xc3/xb3'n de campab'/xc3/xb1'as en diferentes canales.Integrar fuentes a la arquitectura de datos con diferentes formatos, estructurados y no estructurados.Desarrollar, mantener y optimizar modelos predictivos.Actividades de integracib'/xc3/xb3'n del analytics con las acciones comerciales optimizando los KPI's del negocio.Desarrollo y evolucib'/xc3/xb3'n de la capa dimensional y explotacib'/xc3/xb3'n de datos visual. b'/xc2/xa0' b'/xc2/xbf'QUE BUSCAMOS? Sumamos perfiles con muchas ganas de trabajar en equipo, con gran proactividad, apasionados por la tecnologb'/xc3/xad'a e innovacib'/xc3/xb3'n y ganas de investigar y compartir conocimiento.Graduado o estudiante Universitario en carreras orientadas a IT. (Deseable)Poseer experiencia de al menos 3 ab'/xc3/xb1'os en bases de datos y lenguaje SQL, habib'/xc3/xa9'ndose desempeb'/xc3/xb1'ado comob'/xc2/xa0'Desarrollador ETL, Arquitecto de datos, Data Engineer y/o Analista tb'/xc3/xa9'cnico funcional.Tener como mb'/xc3/xad'nimo 2 ab'/xc3/xb1'os de experiencia en Cloudera.Contar con conocimientos de Impala, Hive, Kudu, NiFi, Atlas.Conocimientos de Airflow, Python, BigQuery. (Deseable)Conocimientos de BI y Excel avanzados.Buen nivel de inglb'/xc3/xa9's.
Ver aviso
Nueve de Julio-Buenos Aires (Buenos Aires)
Descripcib'/xc3/xb3'n del Puesto:Desde Cb'&'S, buscamos un b'/xe2/x80/x9c'DATA ENGINEER b'/xe2/x80/x93' SENIOR/ESPECIALISTAb'/xe2/x80/x9d' con amplia experiencia comprobable en el desarrollo de jobs ETL y ELT en entornos on-premise y en la nube, preferentemente en cloud.El candidato ideal tendrb'/xc3/xa1' habilidades avanzadas en Python, experiencia en la migracib'/xc3/xb3'n de procesos de datos y un sb'/xc3/xb3'lido dominio de herramientas de ETL/ELT como NiFi, Glue, EMR o Informatica Cloud.b'/xc2/xa0'Responsabilidades:Desarrollar y optimizar procesos de ETL/ELT en diversos entornos.Migrar procesos de datos desde entornos on-premise a la nube.Ingesta y procesamiento de datos no estructurados en Data Lakes.Utilizar Apache Spark o PySpark para el procesamiento distribuido de datos.Automatizar procesos de datos mediante scripts en Python.b'/xc2/xa0'Requisitos Mandatorios: Experiencia en herramientas de ETL/ELT: NiFi, Glue, EMR o Informatica Cloud.Conocimientos en el uso de Apache Spark o PySpark.Habilidades avanzadas en Python.Preferiblemente experiencia en AWS; se valorarb'/xc3/xa1' conocimiento en otras plataformas cloud.Capacidad para resolver problemas y optimizar procesos de datos complejos.b'/xc2/xa0'Skills b'/xc2/xa0'Deseables/Valoradas: Certificaciones en AWS u otras plataformas de nube.Experiencia en proyectos de migracib'/xc3/xb3'n a gran escala y optimizacib'/xc3/xb3'n de cargas de trabajo en la nube.Familiaridad con estrategias de gobernanza y seguridad de datos en entornos cloud.b'/xc2/xa0'Modalidad de trabajo: 100% Remoto (a excepcib'/xc3/xb3'n de algunas ceremonias presenciales ocasionales - CABA)9 a 18 hs.En relacib'/xc3/xb3'n de dependencia con Cb'&'S.b'/xc2/xa0'Beneficios: Revisiones salariales mb'/xc3/xad'nimas 4 veces al ab'/xc3/xb1'o.Licencia por paternidad extendida.Reintegro por gastos en guarderb'/xc3/xad'a.Descuentos en universidades y cursos de idiomas.Plataforma de capacitacib'/xc3/xb3'n online totalmente gratuita con certificacib'/xc3/xb3'n internacional.Reintegro por gastos (luz e internet) en compensacib'/xc3/xb3'n en el recibo de sueldo.Regalo y db'/xc3/xad'a de cumpleab'/xc3/xb1'os libre.Entrega de equipo de trabajo.Cuponera de Cb'&'S con descuentos en gastronomb'/xc3/xad'a, indumentaria y cursos acadb'/xc3/xa9'micos con certificacib'/xc3/xb3'n internacional.Plan de obra social individual a travb'/xc3/xa9's del redireccionamiento de aportes estipulado por ley, ya sea una obra social que vos tengas y quieras mantener, o una que te podamos brindar nosotros
Ver aviso
Nueve de Julio-Buenos Aires (Buenos Aires)
b'/xc2/xa0'Acerca de Cb'&'S Somos una empresa de mb'/xc3/xa1's de 160 profesionales, consolidada hace 38 ab'/xc3/xb1'os en el mercado. Nuestro propb'/xc3/xb3'sito es garantizar la satisfaccib'/xc3/xb3'n de nuestros clientes; para ello, ofrecemos servicios de Desarrollo de Software, Talent Outsourcing y Consultorb'/xc3/xad'a IT. Contamos con certificacib'/xc3/xb3'n ISO 9001 y sedes en Buenos Aires, Argentina y Santiago de Chile. b'/xc2/xa0' Desde Cb'&'S estamos buscando candidatos/as para llenar la posicib'/xc3/xb3'n de Data Engineer b'/xe2/x80/x93' Senior, para proyecto de importante banco privado. b'/xc2/xa0' Modalidad de trabajo Esquema remoto. (Si el candidato es de CABA/AMBA, tendrb'/xc3/xa1'n que asistir alguna vez a oficinas en Chacarita a participar de ceremonias presenciales)Horario full time Skills mandatorios Experiencia comprobable en el desarrollo de jobs ETL y ELT, tanto en entornos on-premise como en la nube, preferentemente en cloud. Dominio de herramientas de ETL/ELT como NiFi, Glue, EMR o Informatica Cloud. Experiencia en la migracib'/xc3/xb3'n de procesos de datos desde entornos on-premise a la nube. Conocimientos en la ingesta y procesamiento de datos no estructurados en Data Lakes. Experiencia en el uso de Apache Spark o PySpark para el procesamiento distribuido de datos. Habilidades avanzadas en Python para el desarrollo de scripts y automatizaciones en el procesamiento de datos. b'/xc2/xa0' Skills valorados (deseables) Certificaciones en AWS u otras plataformas de nube. Preferentemente con experiencia en AWS, aunque se valorarb'/xc3/xa1' conocimiento en otras plataformas cloud.Conocimientos en otras herramientas de integracib'/xc3/xb3'n y orquestacib'/xc3/xb3'n de datos. Experiencia en proyectos de migracib'/xc3/xb3'n a gran escala y optimizacib'/xc3/xb3'n de cargas de trabajo en la nube. Familiaridad con estrategias de gobernanza y seguridad de datos en entornos cloud. b'/xc2/xbf'Qub'/xc3/xa9' ofrecemos? Cobertura mb'/xc3/xa9'dica (Redireccib'/xc3/xb3'n de aporte)Cuatro revisiones anuales de sueldo.Descuentos en universidades, centros educativos, y mb'/xc3/xa1's.Bono de cumpleab'/xc3/xb1'os.Bono para internet y gastos del hogar.Equipo para que puedas trabajar desde tu casa.Kit de bienvenida al ingresar.
Ver aviso
Colón-Buenos Aires (Buenos Aires)
Acerca de Cb'&'S Somos una empresa de mb'/xc3/xa1's de 160 profesionales, consolidada hace 38 ab'/xc3/xb1'os en el mercado. Nuestro propb'/xc3/xb3'sito es garantizar la satisfaccib'/xc3/xb3'n de nuestros clientes; para ello, ofrecemos servicios de Desarrollo de Software, Talent Outsourcing y Consultorb'/xc3/xad'a IT. Contamos con certificacib'/xc3/xb3'n ISO 9001 y sedes en Buenos Aires, Argentina y Santiago de Chile. b'/xc2/xa0' Desde Cb'&'S estamos buscando candidatos/as para llenar la posicib'/xc3/xb3'n deb'/xc2/xa0'Data Engineer b'/xe2/x80/x93' Semi Senior/Senior,b'/xc2/xa0'para proyecto de importante banco privado. b'/xc2/xa0' b'/xc2/xa0' Modalidad de trabajo Esquema remoto (posibilidad de asistencia eventual a oficinas)Horario full time (de 09 a 18 hs) b'/xc2/xa0' b'/xc2/xa0' Descripcib'/xc3/xb3'n del puesto Desarrollar procesos para poblar las estructuras de datos dentro de las Arquitecturas definidas, generando la ingesta y documentacib'/xc3/xb3'n asociada entre los orb'/xc3/xad'genes de datos y el destino, considerando: 1. La creacib'/xc3/xb3'n de arquitecturas de datos para bases de datos y almacenamientos de datos (por ejemplo, diseb'/xc3/xb1'ar y especificar la estructura general de la base de datos/almacenamiento de datos con base en los requisitos funcionales y tb'/xc3/xa9'cnicos) 2. El desarrollo de modelos lb'/xc3/xb3'gicos y fb'/xc3/xad'sicos de datos 3. El desarrollo de estrategias para la adquisicib'/xc3/xb3'n de datos, recuperacib'/xc3/xb3'n de archivos y ejecucib'/xc3/xb3'n de bases de datos b'/xc2/xa0' b'/xc2/xa0' Responsabilidades Desarrollar ingestas de datos a partir de diferentes fuentes orb'/xc3/xad'genes, sean estos internos o externos.Desarrollo de procesos de ETL.Disponibilidad de los datos en distintos formatos.Realizacib'/xc3/xb3'n de pruebas y documentacib'/xc3/xb3'n.Integracib'/xc3/xb3'n de soluciones a procesos de negocio.Automatizacib'/xc3/xb3'n y mb'/xc3/xa9'todos de seguimiento.Actualizacib'/xc3/xb3'n/investigacib'/xc3/xb3'n de nuevas herramientas.Modelado de datos lb'/xc3/xb3'gicos y fb'/xc3/xad'sicosModelado de procesos de negocioDefinir y ejecutar la transformacib'/xc3/xb3'n de Datos b'/xc2/xa0'Dar soporte al Data Hub y los DataOps en el manejo de la plataforma b'/xc2/xa0' b'/xc2/xa0' Skills mandatorios b'/xc2/xa0'Entre 2 y 5 ab'/xc3/xb1'os de experiencia previa como Data Engineer.Experiencia diseb'/xc3/xb1'ando ETLs y Datalakes on cloud o plataformas de Big DataExperiencia en servicios y plataformas para datos Cloud AzureExperiencia en performance y tuning en Bases de DatosExperiencia en IC / DC: Azure Devops - Azure Repos b'/xe2/x80/x93' Github.Azure Databricks, Azure DataFactory, Azure Event HubsPython b'/xe2/x80/x93' R para ingesta de datosPyspark, PandasAPIs para disponibilizar y consumir datosBases de datos SQL y NoSQLModelado de Datos (Data Warehouse / Data Lake)Data StorageHerramientas de visualizacib'/xc3/xb3'n (Power BI).T-SQLPL/SQLMetodologb'/xc3/xad'as b'/xc3/xa1'giles. b'/xc2/xa0' b'/xc2/xa0' Skills valorados (deseables) PytestTerraform b'/xc2/xa0' b'/xc2/xa0' b'/xc2/xbf'Qub'/xc3/xa9' ofrecemos? Cobertura mb'/xc3/xa9'dica (Redireccib'/xc3/xb3'n de aporte)Cuatro revisiones anuales de sueldo.Descuentos en universidades, centros educativos, y mb'/xc3/xa1's.Bono de cumpleab'/xc3/xb1'os.Bono para internet y gastos del hogar.Equipo para que puedas trabajar desde tu casa.Kit de bienvenida al ingresar
Ver aviso
Nueve de Julio-Buenos Aires (Buenos Aires)
Acerca de Cb'&'SSomos una empresa lb'/xc3/xad'der de tecnologb'/xc3/xad'a con mb'/xc3/xa1's de 38 ab'/xc3/xb1'os de presencia en el mercado IT. Brindamos soluciones a organizaciones que buscan aumentar su productividad y eficiencia construyendo relaciones de honestidad y transparencia tanto con nuestros clientes como con nuestro equipo de trabajo, con quienes compartimos y valoramos la pasib'/xc3/xb3'n por la tecnologb'/xc3/xad'a.b'/xc2/xa0'Skills Mandatorios: Experiencia comprobable en el desarrollo de jobs ETL y ELT, tanto en entornos on-premise como en la nube, preferentemente en cloud.Dominio de herramientas de ETL/ELT como NiFi, Glue, EMR o Informatica Cloud.Experiencia en la migracib'/xc3/xb3'n de procesos de datos desde entornos on-premise a la nube.Conocimientos en la ingesta y procesamiento de datos no estructurados en Data Lakes.Experiencia en el uso de Apache Spark o PySpark para el procesamiento distribuido de datos.Habilidades avanzadas en Python para el desarrollo de scripts y automatizaciones en el procesamiento de datos.Preferentemente con experiencia en AWS, aunque se valorarb'/xc3/xa1' conocimiento en otras plataformas cloud.Habilidades de resolucib'/xc3/xb3'n de problemas y capacidad para optimizar procesos de datos complejos.b'/xc2/xa0'Skills deseables: Certificaciones en AWS u otras plataformas de nube.Conocimientos en otras herramientas de integracib'/xc3/xb3'n y orquestacib'/xc3/xb3'n de datos.Experiencia en proyectos de migracib'/xc3/xb3'n a gran escala y optimizacib'/xc3/xb3'n de cargas de trabajo en la nube.Familiaridad con estrategias de gobernanza y seguridad de datos en entornos cloud.b'/xc2/xa0'Beneficios Revisiones salariales mb'/xc3/xad'nimas 4 veces al ab'/xc3/xb1'oEntrega de equipo de trabajoRegalo y db'/xc3/xad'a de cumpleab'/xc3/xb1'os libreReintegro por gastos de servicios (internet, luz) en compensacib'/xc3/xb3'n en el recibo de sueldoLicencia por paternidad extendidaDescuentos en universidades y cursos de idiomasPlataforma de capacitacib'/xc3/xb3'n online totalmente gratuita con certificacib'/xc3/xb3'n internacional.Cuponera de Cb'&'SCobertura mb'/xc3/xa9'dica (redireccib'/xc3/xb3'n del aporte)b'/xc2/xa1'Si buscas un lugar en donde puedas crecer profesionalmente y crees que tu perfil coincide con las caracterb'/xc3/xad'sticas que estamos buscando, no dudes en enviarnos tu CV!
Ver aviso
Nueve de Julio-Buenos Aires (Buenos Aires)
Somos IT Patagonia, un equipo que brinda soluciones en la industria del conocimiento con impacto positivo. Llevamos 30 ab'/xc3/xb1'os liderando procesos de evolucib'/xc3/xb3'n tecnolb'/xc3/xb3'gica brindando soluciones para potenciar el funcionamiento de las organizaciones y el desarrollo de las personas que las componen. Queremos ser una mejor empresa para el mundo y sabemos que los mejores resultados se alcanzan de manera colaborativa. Por eso crecemos, innovamos y evolucionamos juntos.Estamos reforzando el equipo y buscamos un Cloud Architect Sr que se sume a la comunidad de IT Patagonia. #BepatagonianDescripcib'/xc3/xb3'n del rol, responsabilidades y actividades:Responsable de la definicib'/xc3/xb3'n de arquitecturas de datos para soluciones digitales y el inicio de proyectos a nivel de los proyectos a los que da servicio.Revisib'/xc3/xb3'n de los procesos de ingesta.Definicib'/xc3/xb3'n de arquitectura sobre las etapas y ciclo de vida del dato.Implementar y mantener buenas prb'/xc3/xa1'cticas de seguridad y gobernanza de datos en la arquitectura, asegurando el cumplimiento de los estb'/xc3/xa1'ndares y regulaciones de privacidad.Implementar y mantener buenas prb'/xc3/xa1'cticas de integridad de los datos y rendimiento del sistema.Diseb'/xc3/xb1'o, optimizacib'/xc3/xb3'n y migracib'/xc3/xb3'n de bases de datos.Coordinacib'/xc3/xb3'n de tareas de data con los Data Engineer.Trabajar en forma coordinada con el Enterprise Datawarehouse Architect y con el AI Architect.Colaborar con los equipos de desarrollo y los stakeholders para comprender los requisitos y traducirlos en soluciones tb'/xc3/xa9'cnicas.Diseb'/xc3/xb1'ar y desarrollar arquitecturas de datos altamente escalables y de alto rendimiento en AWS, utilizando servicios como Amazon S3, Amazon Redshift,Amazon Athena, Amazon Glue, Amazon EMR, Amazon Kinesis, etc.Diseb'/xc3/xb1'ar e implementar flujos de datos eficientes y confiables, incluyendo la integracib'/xc3/xb3'n de sistemas de origen, transformacib'/xc3/xb3'n de datos y almacenamiento de datos.Investigar y evaluar nuevas tecnologb'/xc3/xad'as y herramientas en el campo de la gestib'/xc3/xb3'n y anb'/xc3/xa1'lisis de datos en la nube.DocumentarCapacidades/skills/calificaciones:Experiencia amplia en el diseb'/xc3/xb1'o de arquitectura de data y analb'/xc3/xad'tica, especialmente en el sector bancario.Experiencia demostrable en el diseb'/xc3/xb1'o y desarrollo de soluciones de datos en entornos basados en la nube, preferentemente utilizando AWS.Conocimiento profundo de los servicios de datos de AWS, como Amazon S3, Amazon Redshift, - Amazon Athena, Amazon Glue, Amazon EMR, Amazon Kinesis, etc.Experiencia en el diseb'/xc3/xb1'o e implementacib'/xc3/xb3'n de arquitecturas de datos escalables, seguras y de alto rendimiento en AWS.Amplia comprensib'/xc3/xb3'n de los principios de diseb'/xc3/xb1'o de bases de datos, modelado de datos y ETL (Extract, Transform, Load).Amplio conocimiento de soluciones y herramientas de analb'/xc3/xad'tica avanzada, tanto en la nube como on-premise.Conocimiento amplio de estb'/xc3/xa1'ndares y mejores prb'/xc3/xa1'cticas de arquitectura de datos / arquitectura empresarial.Excelentes habilidades de comunicacib'/xc3/xb3'n escrita y verbal.Nivel de inglb'/xc3/xa9's avanzado. (deseable)Certificacib'/xc3/xb3'n AWS Certified Data Specialist o equivalente en tecnologb'/xc3/xad'as de datos de AWS. (Deseable)Somos #empresaB, comprometidos con un sistema econb'/xc3/xb3'mico que beneficia al planeta y a todas las personas. Fomentamos una cultura inclusiva porque consideramos que la diversidad agrega valor a todo lo que hacemos. Queremos que todas las personas se sientan parte y generamos un espacio basado en la colaboracib'/xc3/xb3'n, la pluralidad, la diversidad y la innovacib'/xc3/xb3'n continua. Queremos ser protagonistas en una sociedad mb'/xc3/xa1's responsable, justa e integrada.b'/xc2/xa1'Sumate a esta experiencia!
Ver aviso
Nueve de Julio-Buenos Aires (Buenos Aires)
Modalidad: Hb'/xc3/xad'brida Seniority: Srb'/xc2/xa0' Excluyentes:b'/xc2/xa0'. Experiencia amplia en el diseb'/xc3/xb1'o de arquitectura de data y analb'/xc3/xad'tica, especialmente en el sector bancario.b'/xc2/xa0'. Experiencia demostrable en el diseb'/xc3/xb1'o y desarrollo de soluciones de datos en entornos basados en la nube, preferentemente utilizando AWS.b'/xc2/xa0'. Conocimiento profundo de los servicios de datos de AWS, como Amazon S3, Amazon Redshift, - Amazon Athena, Amazon Glue, Amazon EMR, Amazon Kinesis, etc.. Experiencia en el diseb'/xc3/xb1'o e implementacib'/xc3/xb3'n de arquitecturas de datos escalables, seguras y de alto rendimiento en AWS.. Amplia comprensib'/xc3/xb3'n de los principios de diseb'/xc3/xb1'o de bases de datos, modelado de datos y ETL (Extract, Transform, Load).. Amplio conocimiento de soluciones y herramientas de analb'/xc3/xad'tica avanzada, tanto en la nube como on-premise.. Conocimiento amplio de estb'/xc3/xa1'ndares y mejores prb'/xc3/xa1'cticas de arquitectura de datos / arquitectura empresarial. Deseables:b'/xc2/xa0'. Certificacib'/xc3/xb3'n AWS Certified Data Specialist o equivalente en tecnologb'/xc3/xad'as de datos de AWS.. Idiomab'/xc2/xa0'Inglb'/xc3/xa9'sb'/xc2/xa0'avanzado b'/xc2/xa0' Beneficios:b'/xc2/xa0'. Prepaga bonificadab'/xc2/xa0'. Db'/xc3/xad'a de cumpleab'/xc3/xb1'os libreb'/xc2/xa0'. 5 db'/xc3/xad'as off al ab'/xc3/xb1'o para que puedas disfrutar en el ab'/xc3/xb1'o. Acceso a plataforma de descuentos y beneficios en diferentes rubros y marcas. Programa de referidos
Ver aviso
Nueve de Julio-Buenos Aires (Buenos Aires)
Excluyentes:b'/xc2/xa0'. Experiencia amplia en el diseb'/xc3/xb1'o de arquitectura de data y analb'/xc3/xad'tica, especialmente en el sector bancario.b'/xc2/xa0'. Experiencia demostrable en el diseb'/xc3/xb1'o y desarrollo de soluciones de datos en entornos basados en la nube, preferentemente utilizando AWS.b'/xc2/xa0'. Conocimiento profundo de los servicios de datos de AWS, como Amazon S3, Amazon Redshift, - Amazon Athena, Amazon Glue, Amazon EMR, Amazon Kinesis, etc.. Experiencia en el diseb'/xc3/xb1'o e implementacib'/xc3/xb3'n de arquitecturas de datos escalables, seguras y de alto rendimiento en AWS.. Amplia comprensib'/xc3/xb3'n de los principios de diseb'/xc3/xb1'o de bases de datos, modelado de datos y ETL (Extract, Transform, Load).. Amplio conocimiento de soluciones y herramientas de analb'/xc3/xad'tica avanzada, tanto en la nube como on-premise.. Conocimiento amplio de estb'/xc3/xa1'ndares y mejores prb'/xc3/xa1'cticas de arquitectura de datos / arquitectura empresarial. Deseables:b'/xc2/xa0'. Certificacib'/xc3/xb3'n AWS Certified Data Specialist o equivalente en tecnologb'/xc3/xad'as de datos de AWS.. Idiomab'/xc2/xa0'Inglb'/xc3/xa9'sb'/xc2/xa0'avanzado
Ver aviso
Nueve de Julio-Buenos Aires (Buenos Aires)
Excluyentes:b'/xc2/xa0'. Experiencia amplia en el diseb'/xc3/xb1'o de arquitectura de data y analb'/xc3/xad'tica, especialmente en el sector bancario.b'/xc2/xa0'. Experiencia demostrable en el diseb'/xc3/xb1'o y desarrollo de soluciones de datos en entornos basados en la nube, preferentemente utilizando AWS.b'/xc2/xa0'. Conocimiento profundo de los servicios de datos de AWS, como Amazon S3, Amazon Redshift, - Amazon Athena, Amazon Glue, Amazon EMR, Amazon Kinesis, etc.. Experiencia en el diseb'/xc3/xb1'o e implementacib'/xc3/xb3'n de arquitecturas de datos escalables, seguras y de alto rendimiento en AWS.. Amplia comprensib'/xc3/xb3'n de los principios de diseb'/xc3/xb1'o de bases de datos, modelado de datos y ETL (Extract, Transform, Load).. Amplio conocimiento de soluciones y herramientas de analb'/xc3/xad'tica avanzada, tanto en la nube como on-premise.. Conocimiento amplio de estb'/xc3/xa1'ndares y mejores prb'/xc3/xa1'cticas de arquitectura de datos / arquitectura empresarial. Deseables:b'/xc2/xa0'. Certificacib'/xc3/xb3'n AWS Certified Data Specialist o equivalente en tecnologb'/xc3/xad'as de datos de AWS.. Idiomab'/xc2/xa0'Inglb'/xc3/xa9'sb'/xc2/xa0'avanzado b'/xc2/xa0' Beneficios:b'/xc2/xa0'. Prepaga bonificadab'/xc2/xa0'. Db'/xc3/xad'a de cumpleab'/xc3/xb1'os libreb'/xc2/xa0'. 5 db'/xc3/xad'as off al ab'/xc3/xb1'o para que puedas disfrutar en el ab'/xc3/xb1'o. Acceso a plataforma de descuentos y beneficios en diferentes rubros y marcas. Programa de referidos
Ver aviso
Nueve de Julio-Buenos Aires (Buenos Aires)
b'/xc2/xa0'Experiencia amplia en el diseb'/xc3/xb1'o de arquitectura de data y analb'/xc3/xad'tica, especialmente en el sector bancario.b'/xc2/xa0'. Experiencia demostrable en el diseb'/xc3/xb1'o y desarrollo de soluciones de datos en entornos basados en la nube, preferentemente utilizando AWS.b'/xc2/xa0'. Conocimiento profundo de los servicios de datos de AWS, como Amazon S3, Amazon Redshift, - Amazon Athena, Amazon Glue, Amazon EMR, Amazon Kinesis, etc.. Experiencia en el diseb'/xc3/xb1'o e implementacib'/xc3/xb3'n de arquitecturas de datos escalables, seguras y de alto rendimiento en AWS.. Amplia comprensib'/xc3/xb3'n de los principios de diseb'/xc3/xb1'o de bases de datos, modelado de datos y ETL (Extract, Transform, Load).. Amplio conocimiento de soluciones y herramientas de analb'/xc3/xad'tica avanzada, tanto en la nube como on-premise.. Conocimiento amplio de estb'/xc3/xa1'ndares y mejores prb'/xc3/xa1'cticas de arquitectura de datos / arquitectura empresarial. Deseables:b'/xc2/xa0'. Certificacib'/xc3/xb3'n AWS Certified Data Specialist o equivalente en tecnologb'/xc3/xad'as de datos de AWS.. Idiomab'/xc2/xa0'Inglb'/xc3/xa9'sb'/xc2/xa0'avanzado b'/xc2/xa0' Beneficios:b'/xc2/xa0'. Prepaga bonificadab'/xc2/xa0'. Db'/xc3/xad'a de cumpleab'/xc3/xb1'os libreb'/xc2/xa0'. 5 db'/xc3/xad'as off al ab'/xc3/xb1'o para que puedas disfrutar en el ab'/xc3/xb1'o. Acceso a plataforma de descuentos y beneficios en diferentes rubros y marcas. Programa de referidos
Ver aviso
Rosario (Santa Fe)
For OZ, a leading digital solutions company, we're in search of a skilled and experienced Full-stack Azure Data Engineer eager to join our dynamic team. This role presents an exciting opportunity to play a pivotal role in designing, developing, and maintaining data pipelines and analytics solutions using the Azure cloud platform.Job Responsibilities:-Design, develop, and implement end-to-end data solutions using Azure cloud services.-Create data pipelines to ingest, process, and transform data from various sources into actionable insights.-Collaborate with cross-functional teams to understand data requirements and translate them into scalable solutions.-Optimize data workflows for high performance and reliability.-Implement security measures and data governance best practices to maintain data integrity.-Troubleshoot and resolve data-related issues promptly.Required Skills b'&' Experience:+ 3+ years of experience as a Data Engineer in an Azure cloud environment.+ Proficiency in Azure services such as Azure Data Factory, Azure Data Lakes, Azure Synapse, and PowerBI.+ Strong programming skills in Python, SQL, or Scala.+ Experience with data modeling, ETL processes, and data warehousing.+ Excellent problem-solving and analytical skills.+ Ability to work independently and collaboratively in a fast-paced environment.+ Effective communication skills with the ability to explain technical concepts to non-technical stakeholders.Preferred Qualifications:- Bachelorb'/xe2/x80/x99's degree in information science or related field.- Microsoft Azure certifications like Azure Data Engineer Associate.Benefits:* Work Equipment (PC and necessary equipment)* Discount Vouchers* Gifts on special occasions* Access to Udemy for taking courses* Bonuses for completed Official Certificationsb'/xc2/xa0'* Payment in USD* 100% Remote position- We offer competitive compensation, benefits, and ample opportunities for professional growth. Make a real impact in a dynamic environment where your contributions are valued. Join us and take your career to new heights!
Ver aviso

Avisos gratis para comprar y vender en Argentina | CLASF - copyright ©2025 www.clasf.com.ar.