301 Ofertas de Ingeniero Python en Argentina
Ingeniero en desarrollo Software Agricola
Hoy
Trabajo visto
Descripción Del Trabajo
Descripción de la empresa
Sea en el área de movilidad, tecnología industrial, bienes de consumo o energía y tecnología para la construcción, Bosch contribuye de manera importante en la mejora de la calidad de vida de esta generación y de las que vendrán. Esto solo es posible con una red global de más de 400 mil colaboradores altamente comprometidos.
Descripción del empleo
- Organizar y etiquetar datasets de imágenes recolectadas en campo.
- Entrenar, evaluar asertividad y optimizar la arquitectura de modelos de inteligencia artificial
- Codificación, integración y documentación de software embarcado para el control de implementos agrícolas
- Realizar validación y tests de los sistemas en laboratorio o campo y reportar los resultados a través de informes
- Especificación y coordinación técnica en caso de desarrollo en conjunto con institutos socios
Requisitos
- Formación en Ingeniería
- Inglés avanzado (Excluyente) / portugués deseable
- Manejo de lenguaje de programación C/ C++ / SW embarcados (Excluyente)
- Paquete Office avanzado
- Experiencia en proyectos de automatización de sistemas agrícolas
Información adicional
- Jornada de lunes a viernes de 9 a 18 hs (híbrido)
- Zona de Trabajo: San Isidro - Bs.As
- Prepaga para grupo familiar
- Bono Anual
- Beneficios corporativos
Ingeniero de SW (Python) - ID #00075
Hoy
Trabajo visto
Descripción Del Trabajo
Serás parte de un talentoso equipo de software que trabaja en el desarrollo de aplicaciones e integraciones con diferentes plataformas de telecomunicaciones. Tu responsabilidad incluye el diseño, desarrollo y despliegue de aplicaciones con gran volumen de datos y baja latencia, tanto en infraestructura cloud como on-premise.
- Diseñar y co-construir la solución / producto a su cargo con mirada E2E.
- Colaborar con el PO en la creación y refinamiento del product backlog.
- Participar activamente en la planificación del backlog.
- Conducir actividades de investigación, diseño, prototipado y otras actividades relacionadas al diseño de la solución, evolución y mejora del producto.
- Desarrollo de funcionalidades, mejoras, bug fixing, unit testing, integration testing, QA automation, empaquetado e instaladores.
- Relevamiento, arquitectura, definición de componentes, integraciones con sistemas de terceros, instalación, commissioning, documentación, UAT y despliegue de la solución en cada cliente.
- Mantener actualizada la documentación pública, la documentación interna y la documentación de cada despliegue en los diferentes clientes.
- Garantizar la calidad de entrega, minimizando errores, realizando pruebas de integraciones, generando la documentación necesaria, capacitando al cliente, etc.
- Experiencia en ingeniería de software y programación en Python (+ 1 año)
- Amplios conocimientos y experiencia trabajando con Linux. (Ej. Debian, RHEL, etc.)
- Dominio en tecnologías de red. (Ej. TCP, UDP, REST, WebSockets, NETCONF, RESTCONF, OPENFLOW, etc.)
- Docker y orquestación de contenedores. (Kubernetes, OpenShift)
- Tecnologías Cloud (AWS, Google Cloud / Anthos, Azure)
- Habilidad y manejo de herramientas para análisis de problemas a nivel protocolo. (tcpdump, tcpflow, wireshark)
- Estudiantes/graduados de carreras de Ing. en Electrónica, Ing. en Telecomunicaciones o de Sistemas.
- Tecnologías de acceso como xDSL, Fiber, Cable or LTE, 5G.
- Tecnologías de mensajería y streaming (ej. MQTT, AMQP or Kafka).
- Conocimiento en protocolos para administración de dispositivos como SNMP, CWMP, USP.
- Experiencia trabajando con pipelines para CI/CD y release managers.
Competencias Requeridas:
- Colaboración y trabajo en equipo
- Pensamiento crítico
- Flexibilidad y adaptabilidad
- Orientación a la calidad
- Orientación al cliente
Paquete de Beneficios:
- Revisión de sueldo trimestral
- Bono semestral de hasta 1 sueldo en el año.
- 3 semanas de vacaciones a partir del primer año cumplido.
- Programa in house de capacitación de inglés con clases 2 veces por semana
Ingeniero de Datos (Python) Ssr/Sr
Publicado hace 2 días
Trabajo visto
Descripción Del Trabajo
Desde CFOTech estamos en búsqueda de un Ingeniero de Datos (Python) Ssr/Sr para sumarse a un proyecto de una reconocida entidad bancaria.
Objetivo Del Rol
- Diseñar, prototipar e industrializar un proceso de calidad de datos y consolidación de fuentes. Primero construir un MVP en Python (reglas de validación, deduplicación, conciliaciones); luego orquestarlo como ETL en Microsoft Fabric (Data Factory/Pipelines, Lakehouse), con monitoreo y alertas, listo para producción.
Responsabilidades
- Prototipo (MVP) en Python
- Implementar reglas de calidad (completitud, unicidad, consistencia, formatos, catálogos, business rules).
- Normalizar y consolidar múltiples fuentes (BDs, archivos, APIs), incluyendo deduplicación/matching (exacto y difuso) y generación de “golden record” cuando aplique.
- Medir calidad (KPIs, coverage, tasa de error) y generar reportes/outputs reproducibles.
- Industrialización en Microsoft Fabric
- Modelar el pipeline ETL/ELT Python y en Fabric (Data Factory/Pipelines, Dataflows Gen2, Notebooks) hacia Lakehouse/Warehouse.
- Orquestación, scheduling, monitoreo y alertas; gestión de fallas y reintentos.
Requisitos mínimos
Excluyentes
- 3+ años trabajando con Python en datos (pandas/PySpark) y SQL avanzado (joins complejos, window functions, performance).
- Experiencia real en reglas de calidad de datos y consolidación (dedupe, record linkage, estandarización).
- Manejo de alguna librería de data quality en Python (Great Expectations, Pandera o similar).
- Prácticas de ingeniería: tests unitarios/integración, logging estructurado, manejo de errores, packaging, virtualenv/poetry/conda.
- Experiencia orquestando ETL/ELT en Microsoft Fabric (Data Factory/Pipelines, Dataflows Gen2, Notebooks) y almacenamiento Lakehouse/OneLake.
- Conocimientos de modelado de datos (estrella, normalización), particionado, y formatos columnares (Parquet/Delta).
Deseables
- PySpark y Spark SQL en Fabric; Delta Lake.
- MDM/Golden Record, técnicas de fuzzy matching (e.g., recordlinkage, rapidfuzz).
- Power BI (consumo de Lakehouse/Warehouse) para data quality dashboards.
- Observabilidad de datos (data quality SLAs, alerting) con Fabric/Log Analytics.
Modalidad De Contratación : Contratación bajo relación de dependencia con CFOTech. Jornada de 07:45 a 15:15hs. Esquema remoto desde Argentina.
Beneficios : Prepaga de primer nivel para grupo familiar, Bono por referido, Capacitaciones, Descuentos por Cuponstar, Regalo aniversario CFOTECH, Regalo por finalizacion de estudios/nacimiento/casamiento, Bono por conectividad, Club de beneficios, Clases de ingles
#J-18808-LjbffrIngeniero de Datos (Python) Ssr/Sr
Publicado hace 2 días
Trabajo visto
Descripción Del Trabajo
Desde CFOTech estamos en búsqueda de un Ingeniero de Datos (Python) Ssr/Sr para sumarse a un proyecto de una reconocida entidad bancaria.
Objetivo Del Rol
- Diseñar, prototipar e industrializar un proceso de calidad de datos y consolidación de fuentes. Primero construir un MVP en Python (reglas de validación, deduplicación, conciliaciones); luego orquestarlo como ETL en Microsoft Fabric (Data Factory/Pipelines, Lakehouse), con monitoreo y alertas, listo para producción.
Responsabilidades
- Prototipo (MVP) en Python
- Implementar reglas de calidad (completitud, unicidad, consistencia, formatos, catálogos, business rules).
- Normalizar y consolidar múltiples fuentes (BDs, archivos, APIs), incluyendo deduplicación/matching (exacto y difuso) y generación de “golden record” cuando aplique.
- Medir calidad (KPIs, coverage, tasa de error) y generar reportes/outputs reproducibles.
- Industrialización en Microsoft Fabric
- Modelar el pipeline ETL/ELT Python y en Fabric (Data Factory/Pipelines, Dataflows Gen2, Notebooks) hacia Lakehouse/Warehouse.
- Orquestación, scheduling, monitoreo y alertas; gestión de fallas y reintentos.
Requisitos mínimos
Excluyentes
- 3+ años trabajando con Python en datos (pandas/PySpark) y SQL avanzado (joins complejos, window functions, performance).
- Experiencia real en reglas de calidad de datos y consolidación (dedupe, record linkage, estandarización).
- Manejo de alguna librería de data quality en Python (Great Expectations, Pandera o similar).
- Prácticas de ingeniería: tests unitarios/integración, logging estructurado, manejo de errores, packaging, virtualenv/poetry/conda.
- Experiencia orquestando ETL/ELT en Microsoft Fabric (Data Factory/Pipelines, Dataflows Gen2, Notebooks) y almacenamiento Lakehouse/OneLake.
- Conocimientos de modelado de datos (estrella, normalización), particionado, y formatos columnares (Parquet/Delta).
Deseables
- PySpark y Spark SQL en Fabric; Delta Lake.
- MDM/Golden Record, técnicas de fuzzy matching (e.g., recordlinkage, rapidfuzz).
- Power BI (consumo de Lakehouse/Warehouse) para data quality dashboards.
- Observabilidad de datos (data quality SLAs, alerting) con Fabric/Log Analytics.
Modalidad De Contratación : Contratación bajo relación de dependencia con CFOTech. Jornada de 07:45 a 15:15hs. Esquema remoto desde Argentina.
Beneficios : Prepaga de primer nivel para grupo familiar, Bono por referido, Capacitaciones, Descuentos por Cuponstar, Regalo aniversario CFOTECH, Regalo por finalizacion de estudios/nacimiento/casamiento, Bono por conectividad, Club de beneficios, Clases de ingles
#J-18808-LjbffrIngeniero de Datos (Python) Ssr/Sr
Publicado hace 2 días
Trabajo visto
Descripción Del Trabajo
Desde CFOTech estamos en búsqueda de un Ingeniero de Datos (Python) Ssr/Sr para sumarse a un proyecto de una reconocida entidad bancaria.
Objetivo Del Rol
- Diseñar, prototipar e industrializar un proceso de calidad de datos y consolidación de fuentes. Primero construir un MVP en Python (reglas de validación, deduplicación, conciliaciones); luego orquestarlo como ETL en Microsoft Fabric (Data Factory/Pipelines, Lakehouse), con monitoreo y alertas, listo para producción.
Responsabilidades
- Prototipo (MVP) en Python
- Implementar reglas de calidad (completitud, unicidad, consistencia, formatos, catálogos, business rules).
- Normalizar y consolidar múltiples fuentes (BDs, archivos, APIs), incluyendo deduplicación/matching (exacto y difuso) y generación de “golden record” cuando aplique.
- Medir calidad (KPIs, coverage, tasa de error) y generar reportes/outputs reproducibles.
- Industrialización en Microsoft Fabric
- Modelar el pipeline ETL/ELT Python y en Fabric (Data Factory/Pipelines, Dataflows Gen2, Notebooks) hacia Lakehouse/Warehouse.
- Orquestación, scheduling, monitoreo y alertas; gestión de fallas y reintentos.
Requisitos mínimos
Excluyentes
- 3+ años trabajando con Python en datos (pandas/PySpark) y SQL avanzado (joins complejos, window functions, performance).
- Experiencia real en reglas de calidad de datos y consolidación (dedupe, record linkage, estandarización).
- Manejo de alguna librería de data quality en Python (Great Expectations, Pandera o similar).
- Prácticas de ingeniería: tests unitarios/integración, logging estructurado, manejo de errores, packaging, virtualenv/poetry/conda.
- Experiencia orquestando ETL/ELT en Microsoft Fabric (Data Factory/Pipelines, Dataflows Gen2, Notebooks) y almacenamiento Lakehouse/OneLake.
- Conocimientos de modelado de datos (estrella, normalización), particionado, y formatos columnares (Parquet/Delta).
Deseables
- PySpark y Spark SQL en Fabric; Delta Lake.
- MDM/Golden Record, técnicas de fuzzy matching (e.g., recordlinkage, rapidfuzz).
- Power BI (consumo de Lakehouse/Warehouse) para data quality dashboards.
- Observabilidad de datos (data quality SLAs, alerting) con Fabric/Log Analytics.
Modalidad De Contratación : Contratación bajo relación de dependencia con CFOTech. Jornada de 07:45 a 15:15hs. Esquema remoto desde Argentina.
Beneficios : Prepaga de primer nivel para grupo familiar, Bono por referido, Capacitaciones, Descuentos por Cuponstar, Regalo aniversario CFOTECH, Regalo por finalizacion de estudios/nacimiento/casamiento, Bono por conectividad, Club de beneficios, Clases de ingles
#J-18808-LjbffrIngeniero de Datos (Python) Ssr/Sr
Publicado hace 2 días
Trabajo visto
Descripción Del Trabajo
Desde CFOTech estamos en búsqueda de un Ingeniero de Datos (Python) Ssr/Sr para sumarse a un proyecto de una reconocida entidad bancaria.
Objetivo Del Rol
- Diseñar, prototipar e industrializar un proceso de calidad de datos y consolidación de fuentes. Primero construir un MVP en Python (reglas de validación, deduplicación, conciliaciones); luego orquestarlo como ETL en Microsoft Fabric (Data Factory/Pipelines, Lakehouse), con monitoreo y alertas, listo para producción.
Responsabilidades
- Prototipo (MVP) en Python
- Implementar reglas de calidad (completitud, unicidad, consistencia, formatos, catálogos, business rules).
- Normalizar y consolidar múltiples fuentes (BDs, archivos, APIs), incluyendo deduplicación/matching (exacto y difuso) y generación de “golden record” cuando aplique.
- Medir calidad (KPIs, coverage, tasa de error) y generar reportes/outputs reproducibles.
- Industrialización en Microsoft Fabric
- Modelar el pipeline ETL/ELT Python y en Fabric (Data Factory/Pipelines, Dataflows Gen2, Notebooks) hacia Lakehouse/Warehouse.
- Orquestación, scheduling, monitoreo y alertas; gestión de fallas y reintentos.
Requisitos mínimos
Excluyentes
- 3+ años trabajando con Python en datos (pandas/PySpark) y SQL avanzado (joins complejos, window functions, performance).
- Experiencia real en reglas de calidad de datos y consolidación (dedupe, record linkage, estandarización).
- Manejo de alguna librería de data quality en Python (Great Expectations, Pandera o similar).
- Prácticas de ingeniería: tests unitarios/integración, logging estructurado, manejo de errores, packaging, virtualenv/poetry/conda.
- Experiencia orquestando ETL/ELT en Microsoft Fabric (Data Factory/Pipelines, Dataflows Gen2, Notebooks) y almacenamiento Lakehouse/OneLake.
- Conocimientos de modelado de datos (estrella, normalización), particionado, y formatos columnares (Parquet/Delta).
Deseables
- PySpark y Spark SQL en Fabric; Delta Lake.
- MDM/Golden Record, técnicas de fuzzy matching (e.g., recordlinkage, rapidfuzz).
- Power BI (consumo de Lakehouse/Warehouse) para data quality dashboards.
- Observabilidad de datos (data quality SLAs, alerting) con Fabric/Log Analytics.
Modalidad De Contratación : Contratación bajo relación de dependencia con CFOTech. Jornada de 07:45 a 15:15hs. Esquema remoto desde Argentina.
Beneficios : Prepaga de primer nivel para grupo familiar, Bono por referido, Capacitaciones, Descuentos por Cuponstar, Regalo aniversario CFOTECH, Regalo por finalizacion de estudios/nacimiento/casamiento, Bono por conectividad, Club de beneficios, Clases de ingles
#J-18808-LjbffrIngeniero de Datos (Python) Ssr/Sr
Publicado hace 2 días
Trabajo visto
Descripción Del Trabajo
Desde CFOTech estamos en búsqueda de un Ingeniero de Datos (Python) Ssr/Sr para sumarse a un proyecto de una reconocida entidad bancaria.
Objetivo Del Rol
- Diseñar, prototipar e industrializar un proceso de calidad de datos y consolidación de fuentes. Primero construir un MVP en Python (reglas de validación, deduplicación, conciliaciones); luego orquestarlo como ETL en Microsoft Fabric (Data Factory/Pipelines, Lakehouse), con monitoreo y alertas, listo para producción.
Responsabilidades
- Prototipo (MVP) en Python
- Implementar reglas de calidad (completitud, unicidad, consistencia, formatos, catálogos, business rules).
- Normalizar y consolidar múltiples fuentes (BDs, archivos, APIs), incluyendo deduplicación/matching (exacto y difuso) y generación de “golden record” cuando aplique.
- Medir calidad (KPIs, coverage, tasa de error) y generar reportes/outputs reproducibles.
- Industrialización en Microsoft Fabric
- Modelar el pipeline ETL/ELT Python y en Fabric (Data Factory/Pipelines, Dataflows Gen2, Notebooks) hacia Lakehouse/Warehouse.
- Orquestación, scheduling, monitoreo y alertas; gestión de fallas y reintentos.
Requisitos mínimos
Excluyentes
- 3+ años trabajando con Python en datos (pandas/PySpark) y SQL avanzado (joins complejos, window functions, performance).
- Experiencia real en reglas de calidad de datos y consolidación (dedupe, record linkage, estandarización).
- Manejo de alguna librería de data quality en Python (Great Expectations, Pandera o similar).
- Prácticas de ingeniería: tests unitarios/integración, logging estructurado, manejo de errores, packaging, virtualenv/poetry/conda.
- Experiencia orquestando ETL/ELT en Microsoft Fabric (Data Factory/Pipelines, Dataflows Gen2, Notebooks) y almacenamiento Lakehouse/OneLake.
- Conocimientos de modelado de datos (estrella, normalización), particionado, y formatos columnares (Parquet/Delta).
Deseables
- PySpark y Spark SQL en Fabric; Delta Lake.
- MDM/Golden Record, técnicas de fuzzy matching (e.g., recordlinkage, rapidfuzz).
- Power BI (consumo de Lakehouse/Warehouse) para data quality dashboards.
- Observabilidad de datos (data quality SLAs, alerting) con Fabric/Log Analytics.
Modalidad De Contratación : Contratación bajo relación de dependencia con CFOTech. Jornada de 07:45 a 15:15hs. Esquema remoto desde Argentina.
Beneficios : Prepaga de primer nivel para grupo familiar, Bono por referido, Capacitaciones, Descuentos por Cuponstar, Regalo aniversario CFOTECH, Regalo por finalizacion de estudios/nacimiento/casamiento, Bono por conectividad, Club de beneficios, Clases de ingles
#J-18808-LjbffrSé el primero en saberlo
Acerca de lo último Ingeniero python Empleos en Argentina !
Ingeniero de Datos (Python) Ssr/Sr
Publicado hace 2 días
Trabajo visto
Descripción Del Trabajo
Desde CFOTech estamos en búsqueda de un Ingeniero de Datos (Python) Ssr/Sr para sumarse a un proyecto de una reconocida entidad bancaria.
Objetivo Del Rol
- Diseñar, prototipar e industrializar un proceso de calidad de datos y consolidación de fuentes. Primero construir un MVP en Python (reglas de validación, deduplicación, conciliaciones); luego orquestarlo como ETL en Microsoft Fabric (Data Factory/Pipelines, Lakehouse), con monitoreo y alertas, listo para producción.
Responsabilidades
- Prototipo (MVP) en Python
- Implementar reglas de calidad (completitud, unicidad, consistencia, formatos, catálogos, business rules).
- Normalizar y consolidar múltiples fuentes (BDs, archivos, APIs), incluyendo deduplicación/matching (exacto y difuso) y generación de “golden record” cuando aplique.
- Medir calidad (KPIs, coverage, tasa de error) y generar reportes/outputs reproducibles.
- Industrialización en Microsoft Fabric
- Modelar el pipeline ETL/ELT Python y en Fabric (Data Factory/Pipelines, Dataflows Gen2, Notebooks) hacia Lakehouse/Warehouse.
- Orquestación, scheduling, monitoreo y alertas; gestión de fallas y reintentos.
Requisitos mínimos
Excluyentes
- 3+ años trabajando con Python en datos (pandas/PySpark) y SQL avanzado (joins complejos, window functions, performance).
- Experiencia real en reglas de calidad de datos y consolidación (dedupe, record linkage, estandarización).
- Manejo de alguna librería de data quality en Python (Great Expectations, Pandera o similar).
- Prácticas de ingeniería: tests unitarios/integración, logging estructurado, manejo de errores, packaging, virtualenv/poetry/conda.
- Experiencia orquestando ETL/ELT en Microsoft Fabric (Data Factory/Pipelines, Dataflows Gen2, Notebooks) y almacenamiento Lakehouse/OneLake.
- Conocimientos de modelado de datos (estrella, normalización), particionado, y formatos columnares (Parquet/Delta).
Deseables
- PySpark y Spark SQL en Fabric; Delta Lake.
- MDM/Golden Record, técnicas de fuzzy matching (e.g., recordlinkage, rapidfuzz).
- Power BI (consumo de Lakehouse/Warehouse) para data quality dashboards.
- Observabilidad de datos (data quality SLAs, alerting) con Fabric/Log Analytics.
Modalidad De Contratación : Contratación bajo relación de dependencia con CFOTech. Jornada de 07:45 a 15:15hs. Esquema remoto desde Argentina.
Beneficios : Prepaga de primer nivel para grupo familiar, Bono por referido, Capacitaciones, Descuentos por Cuponstar, Regalo aniversario CFOTECH, Regalo por finalizacion de estudios/nacimiento/casamiento, Bono por conectividad, Club de beneficios, Clases de ingles
#J-18808-LjbffrIngeniero de Datos (Python) Ssr/Sr
Publicado hace 2 días
Trabajo visto
Descripción Del Trabajo
Desde CFOTech estamos en búsqueda de un Ingeniero de Datos (Python) Ssr/Sr para sumarse a un proyecto de una reconocida entidad bancaria.
Objetivo Del Rol
- Diseñar, prototipar e industrializar un proceso de calidad de datos y consolidación de fuentes. Primero construir un MVP en Python (reglas de validación, deduplicación, conciliaciones); luego orquestarlo como ETL en Microsoft Fabric (Data Factory/Pipelines, Lakehouse), con monitoreo y alertas, listo para producción.
Responsabilidades
- Prototipo (MVP) en Python
- Implementar reglas de calidad (completitud, unicidad, consistencia, formatos, catálogos, business rules).
- Normalizar y consolidar múltiples fuentes (BDs, archivos, APIs), incluyendo deduplicación/matching (exacto y difuso) y generación de “golden record” cuando aplique.
- Medir calidad (KPIs, coverage, tasa de error) y generar reportes/outputs reproducibles.
- Industrialización en Microsoft Fabric
- Modelar el pipeline ETL/ELT Python y en Fabric (Data Factory/Pipelines, Dataflows Gen2, Notebooks) hacia Lakehouse/Warehouse.
- Orquestación, scheduling, monitoreo y alertas; gestión de fallas y reintentos.
Requisitos mínimos
Excluyentes
- 3+ años trabajando con Python en datos (pandas/PySpark) y SQL avanzado (joins complejos, window functions, performance).
- Experiencia real en reglas de calidad de datos y consolidación (dedupe, record linkage, estandarización).
- Manejo de alguna librería de data quality en Python (Great Expectations, Pandera o similar).
- Prácticas de ingeniería: tests unitarios/integración, logging estructurado, manejo de errores, packaging, virtualenv/poetry/conda.
- Experiencia orquestando ETL/ELT en Microsoft Fabric (Data Factory/Pipelines, Dataflows Gen2, Notebooks) y almacenamiento Lakehouse/OneLake.
- Conocimientos de modelado de datos (estrella, normalización), particionado, y formatos columnares (Parquet/Delta).
Deseables
- PySpark y Spark SQL en Fabric; Delta Lake.
- MDM/Golden Record, técnicas de fuzzy matching (e.g., recordlinkage, rapidfuzz).
- Power BI (consumo de Lakehouse/Warehouse) para data quality dashboards.
- Observabilidad de datos (data quality SLAs, alerting) con Fabric/Log Analytics.
Modalidad De Contratación : Contratación bajo relación de dependencia con CFOTech. Jornada de 07:45 a 15:15hs. Esquema remoto desde Argentina.
Beneficios : Prepaga de primer nivel para grupo familiar, Bono por referido, Capacitaciones, Descuentos por Cuponstar, Regalo aniversario CFOTECH, Regalo por finalizacion de estudios/nacimiento/casamiento, Bono por conectividad, Club de beneficios, Clases de ingles
#J-18808-LjbffrIngeniero de Datos (Python) Ssr/Sr
Publicado hace 2 días
Trabajo visto
Descripción Del Trabajo
Desde CFOTech estamos en búsqueda de un Ingeniero de Datos (Python) Ssr/Sr para sumarse a un proyecto de una reconocida entidad bancaria.
Objetivo Del Rol
- Diseñar, prototipar e industrializar un proceso de calidad de datos y consolidación de fuentes. Primero construir un MVP en Python (reglas de validación, deduplicación, conciliaciones); luego orquestarlo como ETL en Microsoft Fabric (Data Factory/Pipelines, Lakehouse), con monitoreo y alertas, listo para producción.
Responsabilidades
- Prototipo (MVP) en Python
- Implementar reglas de calidad (completitud, unicidad, consistencia, formatos, catálogos, business rules).
- Normalizar y consolidar múltiples fuentes (BDs, archivos, APIs), incluyendo deduplicación/matching (exacto y difuso) y generación de “golden record” cuando aplique.
- Medir calidad (KPIs, coverage, tasa de error) y generar reportes/outputs reproducibles.
- Industrialización en Microsoft Fabric
- Modelar el pipeline ETL/ELT Python y en Fabric (Data Factory/Pipelines, Dataflows Gen2, Notebooks) hacia Lakehouse/Warehouse.
- Orquestación, scheduling, monitoreo y alertas; gestión de fallas y reintentos.
Requisitos mínimos
Excluyentes
- 3+ años trabajando con Python en datos (pandas/PySpark) y SQL avanzado (joins complejos, window functions, performance).
- Experiencia real en reglas de calidad de datos y consolidación (dedupe, record linkage, estandarización).
- Manejo de alguna librería de data quality en Python (Great Expectations, Pandera o similar).
- Prácticas de ingeniería: tests unitarios/integración, logging estructurado, manejo de errores, packaging, virtualenv/poetry/conda.
- Experiencia orquestando ETL/ELT en Microsoft Fabric (Data Factory/Pipelines, Dataflows Gen2, Notebooks) y almacenamiento Lakehouse/OneLake.
- Conocimientos de modelado de datos (estrella, normalización), particionado, y formatos columnares (Parquet/Delta).
Deseables
- PySpark y Spark SQL en Fabric; Delta Lake.
- MDM/Golden Record, técnicas de fuzzy matching (e.g., recordlinkage, rapidfuzz).
- Power BI (consumo de Lakehouse/Warehouse) para data quality dashboards.
- Observabilidad de datos (data quality SLAs, alerting) con Fabric/Log Analytics.
Modalidad De Contratación : Contratación bajo relación de dependencia con CFOTech. Jornada de 07:45 a 15:15hs. Esquema remoto desde Argentina.
Beneficios : Prepaga de primer nivel para grupo familiar, Bono por referido, Capacitaciones, Descuentos por Cuponstar, Regalo aniversario CFOTECH, Regalo por finalizacion de estudios/nacimiento/casamiento, Bono por conectividad, Club de beneficios, Clases de ingles
#J-18808-Ljbffr