301 Ofertas de Ingeniero Python en Argentina

Ingeniero en desarrollo Software Agricola

Buenos Aires, Buenos Aires $900000 - $1200000 Y Bosch

Hoy

Trabajo visto

Toque nuevamente para cerrar

Descripción Del Trabajo

Descripción de la empresa

Sea en el área de movilidad, tecnología industrial, bienes de consumo o energía y tecnología para la construcción, Bosch contribuye de manera importante en la mejora de la calidad de vida de esta generación y de las que vendrán. Esto solo es posible con una red global de más de 400 mil colaboradores altamente comprometidos.

Descripción del empleo

  • Organizar y etiquetar datasets de imágenes recolectadas en campo.
  • Entrenar, evaluar asertividad y optimizar la arquitectura de modelos de inteligencia artificial
  • Codificación, integración y documentación de software embarcado para el control de implementos agrícolas
  • Realizar validación y tests de los sistemas en laboratorio o campo y reportar los resultados a través de informes
  • Especificación y coordinación técnica en caso de desarrollo en conjunto con institutos socios

Requisitos

  • Formación en Ingeniería
  • Inglés avanzado (Excluyente) / portugués deseable
  • Manejo de lenguaje de programación C/ C++ / SW embarcados (Excluyente)
  • Paquete Office avanzado
  • Experiencia en proyectos de automatización de sistemas agrícolas

Información adicional

  • Jornada de lunes a viernes de 9 a 18 hs (híbrido)
  • Zona de Trabajo: San Isidro - Bs.As
  • Prepaga para grupo familiar
  • Bono Anual
  • Beneficios corporativos
Lo sentimos, este trabajo no está disponible en su región

Ingeniero de SW (Python) - ID #00075

Werben HR

Hoy

Trabajo visto

Toque nuevamente para cerrar

Descripción Del Trabajo

Serás parte de un talentoso equipo de software que trabaja en el desarrollo de aplicaciones e integraciones con diferentes plataformas de telecomunicaciones. Tu responsabilidad incluye el diseño, desarrollo y despliegue de aplicaciones con gran volumen de datos y baja latencia, tanto en infraestructura cloud como on-premise.

  • Diseñar y co-construir la solución / producto a su cargo con mirada E2E.
  • Colaborar con el PO en la creación y refinamiento del product backlog.
  • Participar activamente en la planificación del backlog.
  • Conducir actividades de investigación, diseño, prototipado y otras actividades relacionadas al diseño de la solución, evolución y mejora del producto.
  • Desarrollo de funcionalidades, mejoras, bug fixing, unit testing, integration testing, QA automation, empaquetado e instaladores.
  • Relevamiento, arquitectura, definición de componentes, integraciones con sistemas de terceros, instalación, commissioning, documentación, UAT y despliegue de la solución en cada cliente.
  • Mantener actualizada la documentación pública, la documentación interna y la documentación de cada despliegue en los diferentes clientes.
  • Garantizar la calidad de entrega, minimizando errores, realizando pruebas de integraciones, generando la documentación necesaria, capacitando al cliente, etc.
  • Experiencia en ingeniería de software y programación en Python (+ 1 año)
  • Amplios conocimientos y experiencia trabajando con Linux. (Ej. Debian, RHEL, etc.)
  • Dominio en tecnologías de red. (Ej. TCP, UDP, REST, WebSockets, NETCONF, RESTCONF, OPENFLOW, etc.)
  • Docker y orquestación de contenedores. (Kubernetes, OpenShift)
  • Tecnologías Cloud (AWS, Google Cloud / Anthos, Azure)
  • Habilidad y manejo de herramientas para análisis de problemas a nivel protocolo. (tcpdump, tcpflow, wireshark)
  • Estudiantes/graduados de carreras de Ing. en Electrónica, Ing. en Telecomunicaciones o de Sistemas.
Otras conocimientos deseables:
  • Tecnologías de acceso como xDSL, Fiber, Cable or LTE, 5G.
  • Tecnologías de mensajería y streaming (ej. MQTT, AMQP or Kafka).
  • Conocimiento en protocolos para administración de dispositivos como SNMP, CWMP, USP.
  • Experiencia trabajando con pipelines para CI/CD y release managers.

Competencias Requeridas:

  • Colaboración y trabajo en equipo
  • Pensamiento crítico
  • Flexibilidad y adaptabilidad
  • Orientación a la calidad
  • Orientación al cliente

Paquete de Beneficios:

  • Revisión de sueldo trimestral
  • Bono semestral de hasta 1 sueldo en el año.
  • 3 semanas de vacaciones a partir del primer año cumplido.
  • Programa in house de capacitación de inglés con clases 2 veces por semana
#J-18808-Ljbffr
Lo sentimos, este trabajo no está disponible en su región

Ingeniero de Datos (Python) Ssr/Sr

Tandil, Buenos Aires CFOTech IT Global Services

Publicado hace 2 días

Trabajo visto

Toque nuevamente para cerrar

Descripción Del Trabajo

Desde CFOTech estamos en búsqueda de un Ingeniero de Datos (Python) Ssr/Sr para sumarse a un proyecto de una reconocida entidad bancaria.

Objetivo Del Rol

  • Diseñar, prototipar e industrializar un proceso de calidad de datos y consolidación de fuentes. Primero construir un MVP en Python (reglas de validación, deduplicación, conciliaciones); luego orquestarlo como ETL en Microsoft Fabric (Data Factory/Pipelines, Lakehouse), con monitoreo y alertas, listo para producción.

Responsabilidades

  • Prototipo (MVP) en Python
  • Implementar reglas de calidad (completitud, unicidad, consistencia, formatos, catálogos, business rules).
  • Normalizar y consolidar múltiples fuentes (BDs, archivos, APIs), incluyendo deduplicación/matching (exacto y difuso) y generación de “golden record” cuando aplique.
  • Medir calidad (KPIs, coverage, tasa de error) y generar reportes/outputs reproducibles.
  • Industrialización en Microsoft Fabric
  • Modelar el pipeline ETL/ELT Python y en Fabric (Data Factory/Pipelines, Dataflows Gen2, Notebooks) hacia Lakehouse/Warehouse.
  • Orquestación, scheduling, monitoreo y alertas; gestión de fallas y reintentos.

Requisitos mínimos

Excluyentes

  • 3+ años trabajando con Python en datos (pandas/PySpark) y SQL avanzado (joins complejos, window functions, performance).
  • Experiencia real en reglas de calidad de datos y consolidación (dedupe, record linkage, estandarización).
  • Manejo de alguna librería de data quality en Python (Great Expectations, Pandera o similar).
  • Prácticas de ingeniería: tests unitarios/integración, logging estructurado, manejo de errores, packaging, virtualenv/poetry/conda.
  • Experiencia orquestando ETL/ELT en Microsoft Fabric (Data Factory/Pipelines, Dataflows Gen2, Notebooks) y almacenamiento Lakehouse/OneLake.
  • Conocimientos de modelado de datos (estrella, normalización), particionado, y formatos columnares (Parquet/Delta).

Deseables

  • PySpark y Spark SQL en Fabric; Delta Lake.
  • MDM/Golden Record, técnicas de fuzzy matching (e.g., recordlinkage, rapidfuzz).
  • Power BI (consumo de Lakehouse/Warehouse) para data quality dashboards.
  • Observabilidad de datos (data quality SLAs, alerting) con Fabric/Log Analytics.

Modalidad De Contratación : Contratación bajo relación de dependencia con CFOTech. Jornada de 07:45 a 15:15hs. Esquema remoto desde Argentina.

Beneficios : Prepaga de primer nivel para grupo familiar, Bono por referido, Capacitaciones, Descuentos por Cuponstar, Regalo aniversario CFOTECH, Regalo por finalizacion de estudios/nacimiento/casamiento, Bono por conectividad, Club de beneficios, Clases de ingles

#J-18808-Ljbffr
Lo sentimos, este trabajo no está disponible en su región

Ingeniero de Datos (Python) Ssr/Sr

Tortuguitas CFOTech IT Global Services

Publicado hace 2 días

Trabajo visto

Toque nuevamente para cerrar

Descripción Del Trabajo

Desde CFOTech estamos en búsqueda de un Ingeniero de Datos (Python) Ssr/Sr para sumarse a un proyecto de una reconocida entidad bancaria.

Objetivo Del Rol

  • Diseñar, prototipar e industrializar un proceso de calidad de datos y consolidación de fuentes. Primero construir un MVP en Python (reglas de validación, deduplicación, conciliaciones); luego orquestarlo como ETL en Microsoft Fabric (Data Factory/Pipelines, Lakehouse), con monitoreo y alertas, listo para producción.

Responsabilidades

  • Prototipo (MVP) en Python
  • Implementar reglas de calidad (completitud, unicidad, consistencia, formatos, catálogos, business rules).
  • Normalizar y consolidar múltiples fuentes (BDs, archivos, APIs), incluyendo deduplicación/matching (exacto y difuso) y generación de “golden record” cuando aplique.
  • Medir calidad (KPIs, coverage, tasa de error) y generar reportes/outputs reproducibles.
  • Industrialización en Microsoft Fabric
  • Modelar el pipeline ETL/ELT Python y en Fabric (Data Factory/Pipelines, Dataflows Gen2, Notebooks) hacia Lakehouse/Warehouse.
  • Orquestación, scheduling, monitoreo y alertas; gestión de fallas y reintentos.

Requisitos mínimos

Excluyentes

  • 3+ años trabajando con Python en datos (pandas/PySpark) y SQL avanzado (joins complejos, window functions, performance).
  • Experiencia real en reglas de calidad de datos y consolidación (dedupe, record linkage, estandarización).
  • Manejo de alguna librería de data quality en Python (Great Expectations, Pandera o similar).
  • Prácticas de ingeniería: tests unitarios/integración, logging estructurado, manejo de errores, packaging, virtualenv/poetry/conda.
  • Experiencia orquestando ETL/ELT en Microsoft Fabric (Data Factory/Pipelines, Dataflows Gen2, Notebooks) y almacenamiento Lakehouse/OneLake.
  • Conocimientos de modelado de datos (estrella, normalización), particionado, y formatos columnares (Parquet/Delta).

Deseables

  • PySpark y Spark SQL en Fabric; Delta Lake.
  • MDM/Golden Record, técnicas de fuzzy matching (e.g., recordlinkage, rapidfuzz).
  • Power BI (consumo de Lakehouse/Warehouse) para data quality dashboards.
  • Observabilidad de datos (data quality SLAs, alerting) con Fabric/Log Analytics.

Modalidad De Contratación : Contratación bajo relación de dependencia con CFOTech. Jornada de 07:45 a 15:15hs. Esquema remoto desde Argentina.

Beneficios : Prepaga de primer nivel para grupo familiar, Bono por referido, Capacitaciones, Descuentos por Cuponstar, Regalo aniversario CFOTECH, Regalo por finalizacion de estudios/nacimiento/casamiento, Bono por conectividad, Club de beneficios, Clases de ingles

#J-18808-Ljbffr
Lo sentimos, este trabajo no está disponible en su región

Ingeniero de Datos (Python) Ssr/Sr

Buenos Aires, Buenos Aires CFOTech IT Global Services

Publicado hace 2 días

Trabajo visto

Toque nuevamente para cerrar

Descripción Del Trabajo

Desde CFOTech estamos en búsqueda de un Ingeniero de Datos (Python) Ssr/Sr para sumarse a un proyecto de una reconocida entidad bancaria.

Objetivo Del Rol

  • Diseñar, prototipar e industrializar un proceso de calidad de datos y consolidación de fuentes. Primero construir un MVP en Python (reglas de validación, deduplicación, conciliaciones); luego orquestarlo como ETL en Microsoft Fabric (Data Factory/Pipelines, Lakehouse), con monitoreo y alertas, listo para producción.

Responsabilidades

  • Prototipo (MVP) en Python
  • Implementar reglas de calidad (completitud, unicidad, consistencia, formatos, catálogos, business rules).
  • Normalizar y consolidar múltiples fuentes (BDs, archivos, APIs), incluyendo deduplicación/matching (exacto y difuso) y generación de “golden record” cuando aplique.
  • Medir calidad (KPIs, coverage, tasa de error) y generar reportes/outputs reproducibles.
  • Industrialización en Microsoft Fabric
  • Modelar el pipeline ETL/ELT Python y en Fabric (Data Factory/Pipelines, Dataflows Gen2, Notebooks) hacia Lakehouse/Warehouse.
  • Orquestación, scheduling, monitoreo y alertas; gestión de fallas y reintentos.

Requisitos mínimos

Excluyentes

  • 3+ años trabajando con Python en datos (pandas/PySpark) y SQL avanzado (joins complejos, window functions, performance).
  • Experiencia real en reglas de calidad de datos y consolidación (dedupe, record linkage, estandarización).
  • Manejo de alguna librería de data quality en Python (Great Expectations, Pandera o similar).
  • Prácticas de ingeniería: tests unitarios/integración, logging estructurado, manejo de errores, packaging, virtualenv/poetry/conda.
  • Experiencia orquestando ETL/ELT en Microsoft Fabric (Data Factory/Pipelines, Dataflows Gen2, Notebooks) y almacenamiento Lakehouse/OneLake.
  • Conocimientos de modelado de datos (estrella, normalización), particionado, y formatos columnares (Parquet/Delta).

Deseables

  • PySpark y Spark SQL en Fabric; Delta Lake.
  • MDM/Golden Record, técnicas de fuzzy matching (e.g., recordlinkage, rapidfuzz).
  • Power BI (consumo de Lakehouse/Warehouse) para data quality dashboards.
  • Observabilidad de datos (data quality SLAs, alerting) con Fabric/Log Analytics.

Modalidad De Contratación : Contratación bajo relación de dependencia con CFOTech. Jornada de 07:45 a 15:15hs. Esquema remoto desde Argentina.

Beneficios : Prepaga de primer nivel para grupo familiar, Bono por referido, Capacitaciones, Descuentos por Cuponstar, Regalo aniversario CFOTECH, Regalo por finalizacion de estudios/nacimiento/casamiento, Bono por conectividad, Club de beneficios, Clases de ingles

#J-18808-Ljbffr
Lo sentimos, este trabajo no está disponible en su región

Ingeniero de Datos (Python) Ssr/Sr

Quilmes, Buenos Aires CFOTech IT Global Services

Publicado hace 2 días

Trabajo visto

Toque nuevamente para cerrar

Descripción Del Trabajo

Desde CFOTech estamos en búsqueda de un Ingeniero de Datos (Python) Ssr/Sr para sumarse a un proyecto de una reconocida entidad bancaria.

Objetivo Del Rol

  • Diseñar, prototipar e industrializar un proceso de calidad de datos y consolidación de fuentes. Primero construir un MVP en Python (reglas de validación, deduplicación, conciliaciones); luego orquestarlo como ETL en Microsoft Fabric (Data Factory/Pipelines, Lakehouse), con monitoreo y alertas, listo para producción.

Responsabilidades

  • Prototipo (MVP) en Python
  • Implementar reglas de calidad (completitud, unicidad, consistencia, formatos, catálogos, business rules).
  • Normalizar y consolidar múltiples fuentes (BDs, archivos, APIs), incluyendo deduplicación/matching (exacto y difuso) y generación de “golden record” cuando aplique.
  • Medir calidad (KPIs, coverage, tasa de error) y generar reportes/outputs reproducibles.
  • Industrialización en Microsoft Fabric
  • Modelar el pipeline ETL/ELT Python y en Fabric (Data Factory/Pipelines, Dataflows Gen2, Notebooks) hacia Lakehouse/Warehouse.
  • Orquestación, scheduling, monitoreo y alertas; gestión de fallas y reintentos.

Requisitos mínimos

Excluyentes

  • 3+ años trabajando con Python en datos (pandas/PySpark) y SQL avanzado (joins complejos, window functions, performance).
  • Experiencia real en reglas de calidad de datos y consolidación (dedupe, record linkage, estandarización).
  • Manejo de alguna librería de data quality en Python (Great Expectations, Pandera o similar).
  • Prácticas de ingeniería: tests unitarios/integración, logging estructurado, manejo de errores, packaging, virtualenv/poetry/conda.
  • Experiencia orquestando ETL/ELT en Microsoft Fabric (Data Factory/Pipelines, Dataflows Gen2, Notebooks) y almacenamiento Lakehouse/OneLake.
  • Conocimientos de modelado de datos (estrella, normalización), particionado, y formatos columnares (Parquet/Delta).

Deseables

  • PySpark y Spark SQL en Fabric; Delta Lake.
  • MDM/Golden Record, técnicas de fuzzy matching (e.g., recordlinkage, rapidfuzz).
  • Power BI (consumo de Lakehouse/Warehouse) para data quality dashboards.
  • Observabilidad de datos (data quality SLAs, alerting) con Fabric/Log Analytics.

Modalidad De Contratación : Contratación bajo relación de dependencia con CFOTech. Jornada de 07:45 a 15:15hs. Esquema remoto desde Argentina.

Beneficios : Prepaga de primer nivel para grupo familiar, Bono por referido, Capacitaciones, Descuentos por Cuponstar, Regalo aniversario CFOTECH, Regalo por finalizacion de estudios/nacimiento/casamiento, Bono por conectividad, Club de beneficios, Clases de ingles

#J-18808-Ljbffr
Lo sentimos, este trabajo no está disponible en su región

Ingeniero de Datos (Python) Ssr/Sr

Formosa, Formosa CFOTech IT Global Services

Publicado hace 2 días

Trabajo visto

Toque nuevamente para cerrar

Descripción Del Trabajo

Desde CFOTech estamos en búsqueda de un Ingeniero de Datos (Python) Ssr/Sr para sumarse a un proyecto de una reconocida entidad bancaria.

Objetivo Del Rol

  • Diseñar, prototipar e industrializar un proceso de calidad de datos y consolidación de fuentes. Primero construir un MVP en Python (reglas de validación, deduplicación, conciliaciones); luego orquestarlo como ETL en Microsoft Fabric (Data Factory/Pipelines, Lakehouse), con monitoreo y alertas, listo para producción.

Responsabilidades

  • Prototipo (MVP) en Python
  • Implementar reglas de calidad (completitud, unicidad, consistencia, formatos, catálogos, business rules).
  • Normalizar y consolidar múltiples fuentes (BDs, archivos, APIs), incluyendo deduplicación/matching (exacto y difuso) y generación de “golden record” cuando aplique.
  • Medir calidad (KPIs, coverage, tasa de error) y generar reportes/outputs reproducibles.
  • Industrialización en Microsoft Fabric
  • Modelar el pipeline ETL/ELT Python y en Fabric (Data Factory/Pipelines, Dataflows Gen2, Notebooks) hacia Lakehouse/Warehouse.
  • Orquestación, scheduling, monitoreo y alertas; gestión de fallas y reintentos.

Requisitos mínimos

Excluyentes

  • 3+ años trabajando con Python en datos (pandas/PySpark) y SQL avanzado (joins complejos, window functions, performance).
  • Experiencia real en reglas de calidad de datos y consolidación (dedupe, record linkage, estandarización).
  • Manejo de alguna librería de data quality en Python (Great Expectations, Pandera o similar).
  • Prácticas de ingeniería: tests unitarios/integración, logging estructurado, manejo de errores, packaging, virtualenv/poetry/conda.
  • Experiencia orquestando ETL/ELT en Microsoft Fabric (Data Factory/Pipelines, Dataflows Gen2, Notebooks) y almacenamiento Lakehouse/OneLake.
  • Conocimientos de modelado de datos (estrella, normalización), particionado, y formatos columnares (Parquet/Delta).

Deseables

  • PySpark y Spark SQL en Fabric; Delta Lake.
  • MDM/Golden Record, técnicas de fuzzy matching (e.g., recordlinkage, rapidfuzz).
  • Power BI (consumo de Lakehouse/Warehouse) para data quality dashboards.
  • Observabilidad de datos (data quality SLAs, alerting) con Fabric/Log Analytics.

Modalidad De Contratación : Contratación bajo relación de dependencia con CFOTech. Jornada de 07:45 a 15:15hs. Esquema remoto desde Argentina.

Beneficios : Prepaga de primer nivel para grupo familiar, Bono por referido, Capacitaciones, Descuentos por Cuponstar, Regalo aniversario CFOTECH, Regalo por finalizacion de estudios/nacimiento/casamiento, Bono por conectividad, Club de beneficios, Clases de ingles

#J-18808-Ljbffr
Lo sentimos, este trabajo no está disponible en su región
Sé el primero en saberlo

Acerca de lo último Ingeniero python Empleos en Argentina !

Ingeniero de Datos (Python) Ssr/Sr

Cordoba CFOTech IT Global Services

Publicado hace 2 días

Trabajo visto

Toque nuevamente para cerrar

Descripción Del Trabajo

Desde CFOTech estamos en búsqueda de un Ingeniero de Datos (Python) Ssr/Sr para sumarse a un proyecto de una reconocida entidad bancaria.

Objetivo Del Rol

  • Diseñar, prototipar e industrializar un proceso de calidad de datos y consolidación de fuentes. Primero construir un MVP en Python (reglas de validación, deduplicación, conciliaciones); luego orquestarlo como ETL en Microsoft Fabric (Data Factory/Pipelines, Lakehouse), con monitoreo y alertas, listo para producción.

Responsabilidades

  • Prototipo (MVP) en Python
  • Implementar reglas de calidad (completitud, unicidad, consistencia, formatos, catálogos, business rules).
  • Normalizar y consolidar múltiples fuentes (BDs, archivos, APIs), incluyendo deduplicación/matching (exacto y difuso) y generación de “golden record” cuando aplique.
  • Medir calidad (KPIs, coverage, tasa de error) y generar reportes/outputs reproducibles.
  • Industrialización en Microsoft Fabric
  • Modelar el pipeline ETL/ELT Python y en Fabric (Data Factory/Pipelines, Dataflows Gen2, Notebooks) hacia Lakehouse/Warehouse.
  • Orquestación, scheduling, monitoreo y alertas; gestión de fallas y reintentos.

Requisitos mínimos

Excluyentes

  • 3+ años trabajando con Python en datos (pandas/PySpark) y SQL avanzado (joins complejos, window functions, performance).
  • Experiencia real en reglas de calidad de datos y consolidación (dedupe, record linkage, estandarización).
  • Manejo de alguna librería de data quality en Python (Great Expectations, Pandera o similar).
  • Prácticas de ingeniería: tests unitarios/integración, logging estructurado, manejo de errores, packaging, virtualenv/poetry/conda.
  • Experiencia orquestando ETL/ELT en Microsoft Fabric (Data Factory/Pipelines, Dataflows Gen2, Notebooks) y almacenamiento Lakehouse/OneLake.
  • Conocimientos de modelado de datos (estrella, normalización), particionado, y formatos columnares (Parquet/Delta).

Deseables

  • PySpark y Spark SQL en Fabric; Delta Lake.
  • MDM/Golden Record, técnicas de fuzzy matching (e.g., recordlinkage, rapidfuzz).
  • Power BI (consumo de Lakehouse/Warehouse) para data quality dashboards.
  • Observabilidad de datos (data quality SLAs, alerting) con Fabric/Log Analytics.

Modalidad De Contratación : Contratación bajo relación de dependencia con CFOTech. Jornada de 07:45 a 15:15hs. Esquema remoto desde Argentina.

Beneficios : Prepaga de primer nivel para grupo familiar, Bono por referido, Capacitaciones, Descuentos por Cuponstar, Regalo aniversario CFOTECH, Regalo por finalizacion de estudios/nacimiento/casamiento, Bono por conectividad, Club de beneficios, Clases de ingles

#J-18808-Ljbffr
Lo sentimos, este trabajo no está disponible en su región

Ingeniero de Datos (Python) Ssr/Sr

CFOTech IT Global Services

Publicado hace 2 días

Trabajo visto

Toque nuevamente para cerrar

Descripción Del Trabajo

Desde CFOTech estamos en búsqueda de un Ingeniero de Datos (Python) Ssr/Sr para sumarse a un proyecto de una reconocida entidad bancaria.

Objetivo Del Rol

  • Diseñar, prototipar e industrializar un proceso de calidad de datos y consolidación de fuentes. Primero construir un MVP en Python (reglas de validación, deduplicación, conciliaciones); luego orquestarlo como ETL en Microsoft Fabric (Data Factory/Pipelines, Lakehouse), con monitoreo y alertas, listo para producción.

Responsabilidades

  • Prototipo (MVP) en Python
  • Implementar reglas de calidad (completitud, unicidad, consistencia, formatos, catálogos, business rules).
  • Normalizar y consolidar múltiples fuentes (BDs, archivos, APIs), incluyendo deduplicación/matching (exacto y difuso) y generación de “golden record” cuando aplique.
  • Medir calidad (KPIs, coverage, tasa de error) y generar reportes/outputs reproducibles.
  • Industrialización en Microsoft Fabric
  • Modelar el pipeline ETL/ELT Python y en Fabric (Data Factory/Pipelines, Dataflows Gen2, Notebooks) hacia Lakehouse/Warehouse.
  • Orquestación, scheduling, monitoreo y alertas; gestión de fallas y reintentos.

Requisitos mínimos

Excluyentes

  • 3+ años trabajando con Python en datos (pandas/PySpark) y SQL avanzado (joins complejos, window functions, performance).
  • Experiencia real en reglas de calidad de datos y consolidación (dedupe, record linkage, estandarización).
  • Manejo de alguna librería de data quality en Python (Great Expectations, Pandera o similar).
  • Prácticas de ingeniería: tests unitarios/integración, logging estructurado, manejo de errores, packaging, virtualenv/poetry/conda.
  • Experiencia orquestando ETL/ELT en Microsoft Fabric (Data Factory/Pipelines, Dataflows Gen2, Notebooks) y almacenamiento Lakehouse/OneLake.
  • Conocimientos de modelado de datos (estrella, normalización), particionado, y formatos columnares (Parquet/Delta).

Deseables

  • PySpark y Spark SQL en Fabric; Delta Lake.
  • MDM/Golden Record, técnicas de fuzzy matching (e.g., recordlinkage, rapidfuzz).
  • Power BI (consumo de Lakehouse/Warehouse) para data quality dashboards.
  • Observabilidad de datos (data quality SLAs, alerting) con Fabric/Log Analytics.

Modalidad De Contratación : Contratación bajo relación de dependencia con CFOTech. Jornada de 07:45 a 15:15hs. Esquema remoto desde Argentina.

Beneficios : Prepaga de primer nivel para grupo familiar, Bono por referido, Capacitaciones, Descuentos por Cuponstar, Regalo aniversario CFOTECH, Regalo por finalizacion de estudios/nacimiento/casamiento, Bono por conectividad, Club de beneficios, Clases de ingles

#J-18808-Ljbffr
Lo sentimos, este trabajo no está disponible en su región

Ingeniero de Datos (Python) Ssr/Sr

Buenos Aires CFOTech IT Global Services

Publicado hace 2 días

Trabajo visto

Toque nuevamente para cerrar

Descripción Del Trabajo

Desde CFOTech estamos en búsqueda de un Ingeniero de Datos (Python) Ssr/Sr para sumarse a un proyecto de una reconocida entidad bancaria.

Objetivo Del Rol

  • Diseñar, prototipar e industrializar un proceso de calidad de datos y consolidación de fuentes. Primero construir un MVP en Python (reglas de validación, deduplicación, conciliaciones); luego orquestarlo como ETL en Microsoft Fabric (Data Factory/Pipelines, Lakehouse), con monitoreo y alertas, listo para producción.

Responsabilidades

  • Prototipo (MVP) en Python
  • Implementar reglas de calidad (completitud, unicidad, consistencia, formatos, catálogos, business rules).
  • Normalizar y consolidar múltiples fuentes (BDs, archivos, APIs), incluyendo deduplicación/matching (exacto y difuso) y generación de “golden record” cuando aplique.
  • Medir calidad (KPIs, coverage, tasa de error) y generar reportes/outputs reproducibles.
  • Industrialización en Microsoft Fabric
  • Modelar el pipeline ETL/ELT Python y en Fabric (Data Factory/Pipelines, Dataflows Gen2, Notebooks) hacia Lakehouse/Warehouse.
  • Orquestación, scheduling, monitoreo y alertas; gestión de fallas y reintentos.

Requisitos mínimos

Excluyentes

  • 3+ años trabajando con Python en datos (pandas/PySpark) y SQL avanzado (joins complejos, window functions, performance).
  • Experiencia real en reglas de calidad de datos y consolidación (dedupe, record linkage, estandarización).
  • Manejo de alguna librería de data quality en Python (Great Expectations, Pandera o similar).
  • Prácticas de ingeniería: tests unitarios/integración, logging estructurado, manejo de errores, packaging, virtualenv/poetry/conda.
  • Experiencia orquestando ETL/ELT en Microsoft Fabric (Data Factory/Pipelines, Dataflows Gen2, Notebooks) y almacenamiento Lakehouse/OneLake.
  • Conocimientos de modelado de datos (estrella, normalización), particionado, y formatos columnares (Parquet/Delta).

Deseables

  • PySpark y Spark SQL en Fabric; Delta Lake.
  • MDM/Golden Record, técnicas de fuzzy matching (e.g., recordlinkage, rapidfuzz).
  • Power BI (consumo de Lakehouse/Warehouse) para data quality dashboards.
  • Observabilidad de datos (data quality SLAs, alerting) con Fabric/Log Analytics.

Modalidad De Contratación : Contratación bajo relación de dependencia con CFOTech. Jornada de 07:45 a 15:15hs. Esquema remoto desde Argentina.

Beneficios : Prepaga de primer nivel para grupo familiar, Bono por referido, Capacitaciones, Descuentos por Cuponstar, Regalo aniversario CFOTECH, Regalo por finalizacion de estudios/nacimiento/casamiento, Bono por conectividad, Club de beneficios, Clases de ingles

#J-18808-Ljbffr
Lo sentimos, este trabajo no está disponible en su región
 

Ubicaciones cercanas

Otros trabajos cerca de mí

Industria

  1. gavelAdministración Pública
  2. workAdministrativo
  3. ecoAgricultura y Silvicultura
  4. restaurantAlimentos y Restaurantes
  5. apartmentArquitectura
  6. paletteArte y Cultura
  7. diversity_3Asistencia Social
  8. directions_carAutomoción
  9. flight_takeoffAviación
  10. account_balanceBanca y Finanzas
  11. spaBelleza y Bienestar
  12. shopping_bagBienes de consumo masivo (FMCG)
  13. point_of_saleComercial y Ventas
  14. shopping_cartComercio Electrónico y Medios Sociales
  15. shopping_cartCompras
  16. constructionConstrucción
  17. supervisor_accountConsultoría de Gestión
  18. person_searchConsultoría de Selección de Personal
  19. request_quoteContabilidad
  20. brushCreativo y Digital
  21. currency_bitcoinCriptomonedas y Blockchain
  22. health_and_safetyCuidado de la Salud
  23. schoolEducación y Formación
  24. boltEnergía
  25. medical_servicesEnfermería
  26. biotechFarmacéutico
  27. manage_accountsGestión
  28. checklist_rtlGestión de Proyectos
  29. child_friendlyGuarderías y Educación Infantil
  30. local_gas_stationHidrocarburos
  31. beach_accessHostelería y Turismo
  32. codeInformática y Software
  33. foundationIngeniería Civil
  34. electrical_servicesIngeniería Eléctrica
  35. precision_manufacturingIngeniería Industrial
  36. buildIngeniería Mecánica
  37. scienceIngeniería Química
  38. handymanInstalación y Mantenimiento
  39. smart_toyInteligencia Artificial y Tecnologías Emergentes
  40. scienceInvestigación y Desarrollo
  41. gavelLegal
  42. clean_handsLimpieza y Saneamiento
  43. inventory_2Logística y Almacenamiento
  44. factoryManufactura y Producción
  45. campaignMarketing
  46. local_hospitalMedicina
  47. perm_mediaMedios y Relaciones Públicas
  48. constructionMinería
  49. sports_soccerOcio y Deportes
  50. medical_servicesOdontología
  51. schoolPrácticas
  52. emoji_eventsRecién Graduados
  53. groupsRecursos Humanos
  54. securitySeguridad de la Información
  55. local_policeSeguridad y Vigilancia
  56. policySeguros
  57. support_agentServicio al Cliente
  58. home_workServicios Inmobiliarios
  59. diversity_3Servicios Sociales
  60. wifiTelecomunicaciones
  61. psychologyTerapia
  62. local_shippingTransporte
  63. storeVenta al por menor
  64. petsVeterinaria
Ver todo Ingeniero Python Empleos