63 Ofertas de Científico de Datos en Argentina
Científico de datos
Hoy
Trabajo visto
Descripción Del Trabajo
Responsibilities
- Develop and maintain scalable and efficient machine learning models.
- Analyze large volumes of data to generate actionable insights.
- Collaborate with product, engineering, and business teams to integrate AI-based solutions.
- Evaluate, adjust, and optimize existing models to improve performance.
- Document methodologies, results, and model development processes.
Qualifications
- Proficient in Python for building and training machine learning models.
- Design and implement LLM-based solutions for NLP tasks.
- Apply advanced AI/ML techniques to solve complex business problems.
- Integrate Retrieval-Augmented Generation (RAG) systems to enhance the accuracy of generated responses.
- Advanced English proficiency.
Científico de datos
Hoy
Trabajo visto
Descripción Del Trabajo
Propuesta de trabajo
El Científico de Datos es responsable de analizar y extraer información valiosa de los datos a través del desarrollo de modelos de Machine Learning. Utilizará técnicas de ciencia de datos y machine learning para analizar y predecir tendencias a partir de grandes conjuntos de datos. Esto incluye la limpieza y preprocesamiento de datos, la implementación de modelos de machine learning, la realización de pruebas A/B, y la creación de visualizaciones de datos para presentar los resultados de manera comprensible.
Responsabilidades:
- Análisis, limpieza y preprocesamiento de los datos. Feature engineering Desarrollo de modelos de Machine Learning en Python. Visualizaciones con herramientas de BI o librerías de Python.
- Priorizar el uso de estándares y evitar malas prácticas (código y modelos). Entendimiento del pipeline de un proyecto (desde la extracción de datos hasta la implementación de un algoritmo en producción).
- Comunicación de manera clara de los resultados de una solución, traduciendo lo técnico para presentar los resultados a negocio.
Lo que buscamos:
- Base técnica en Informática, Sistemas o afines.
- Experiencia en el desarrollo de proyectos de Machine Learning (modelos predictivos y series temporales).
- Conocimientos y experiencia en el desarrollo de proyectos con:
Python, BBDDs (SQL y noSQL)
Sistemas de control de versiones (GitHub, GitLab)
Librerías de Machine Learning (SKLearn, Tensorflow, etc.)
Herramientas de visualización o librerías de Python para desarrollar visualizaciones.
Spark
Deseable:
- Valoraremos conocimientos y experiencia con Hadoop, y conocimiento de bases de datos distribuidas y/o vectoriales.
- Es un plus experiencia con plataformas cloud: AWS, GCP, Azure, IBM.
Beneficios:
Modalidad de trabajo híbrida
Beneficio por conectividad
Capacitación y certificaciones a cargo de la empresa
Prepaga de primer nivel
Día del cumple free
Plan de carrera personalizado | Capacitación constante
Kit de Bienvenida
Convenios para descuentos especiales junto a Unilever, Tienda Molinos y otras
Descuentos en formación junto a Siglo 21 y Coderhouse
Científico de datos
Hoy
Trabajo visto
Descripción Del Trabajo
Propósito del puesto
Sumarse al equipo de Tecnología para impulsar proyectos de analítica avanzada e Inteligencia Artificial sobre el ecosistema Microsoft Azure y Fabric. El objetivo es transformar datos corporativos en valor estratégico, optimizando procesos y contribuyendo al gobierno de datos de la organización.
Responsabilidades principales
- Diseñar, entrenar y validar modelos de machine learning y deep learning en entornos Azure Machine Learning y Fabric.
- Desarrollar pipelines de datos y procesos ETL/ELT en Azure Data Factory y Fabric Data Pipelines, asegurando calidad, disponibilidad y trazabilidad.
- Implementar soluciones de MLOps en Azure: registro de modelos, automatización de despliegues y monitoreo en producción.
- Integrar fuentes de datos estructurados y no estructurados en Azure Data Lake Gen2/OneLake, aplicando principios de gobierno con Microsoft Purview.
- Explorar tendencias emergentes en IA (NLP, visión por computadora, modelos generativos, reinforcement learning) y proponer su aplicabilidad al negocio.
- Colaborar con equipos multidisciplinarios para traducir necesidades en soluciones data-driven.
- Presentar resultados y hallazgos de manera clara a stakeholders técnicos y de negocio.
- Documentar desarrollos, procesos y mejores prácticas para favorecer la reutilización y escalabilidad.
Conocimientos técnicos
- Lenguajes: Python, .NET, Java
- Frameworks: scikit-learn, TensorFlow, PyTorch, Keras, XGBoost.
- Data & Cloud: Azure Data Factory, Synapse, Data Lake Gen2/OneLake, Microsoft Fabric, Azure ML. (Excluyente)
- Gobierno de datos: Microsoft Purview.
- Bases de datos: SQL, NoSQL y entornos distribuidos (Spark).
- Visualización: Power BI (Excluyente).
- Integración con SAP Datasphere para escenarios de analítica corporativa. (deseable)
- Conocimientos en OpenAI, Copilot Studio.
Competencias clave
- Pensamiento creativo e innovador.
- Orientación a resultados y foco en impacto de negocio.
- Capacidad de comunicar hallazgos complejos de forma clara.
- Trabajo colaborativo en equipos multidisciplinarios.
- Curiosidad y aprendizaje continuo de nuevas tendencias tecnológicas.
Experiencia
- 2-4 años en roles de ciencia de datos o IA.
- Experiencia probada en la puesta en producción de modelos (MLOps) dentro de entornos cloud (Azure preferentemente).
- Participación en proyectos de innovación tecnológica y analítica avanzada.
Formación académica
- Estudios en Ciencias de la Computación, Ingeniería, Matemática, Estadística, Física o afines.
- Certificaciones en Data Science, IA o Big Data (deseable).
Científico de datos
Hoy
Trabajo visto
Descripción Del Trabajo
Senior Data Scientist – Proyecto 1 año
Buscamos un(a)
Data Scientist Senior
para liderar el diseño, desarrollo y despliegue de soluciones de ciencia de datos orientadas al análisis de información a gran escala.
El rol exige experiencia comprobada llevando modelos de
Machine Learning
y
Deep Learning
a producción con datos masivos, aplicando técnicas de
A/B Testing
,
supervised learning
,
detección de anomalías
y
reconocimiento de patrones
.
Responsabilidades
- Diseñar, entrenar y desplegar modelos de ML/DL en entornos productivos.
- Implementar técnicas avanzadas de anomaly detection y pattern recognition.
- Ejecutar A/B testing para validar hipótesis y optimizar productos.
- Colaborar con equipos multifuncionales (producto, ingeniería, negocio, fiscal/contable).
- Asegurar calidad de datos mediante orquestación y monitoreo de pipelines.
- Proponer soluciones innovadoras con analítica avanzada e IA generativa.
Requisitos
- Licenciatura en Sistemas, Matemáticas, Estadística o afín (Maestría/Doctorado deseable).
- 6–12 años de experiencia en ciencia de datos (mínimo 3 liderando proyectos en producción).
- Experiencia sólida en ML/DL, anomaly detection, A/B testing y modelado predictivo.
- Manejo avanzado de
Python, R y SQL
. - Experiencia en MLOps, pipelines y despliegue en la nube (AWS, GCP o Azure).
- Conocimiento de frameworks ML/DL (scikit-learn, TensorFlow, PyTorch).
- Bases de datos SQL/NoSQL y herramientas de visualización.
Plus
- Experiencia en contabilidad, fiscal, financiero o fintech.
- Conocimiento en NLP, LLMs, fraude y riesgo operativo.
- Experiencia con Big Data (Spark, Databricks, Hadoop).
Condiciones del proyecto
- Duración:
1 año - Horario:
lunes a viernes de 9:00 a 18:30 hrs
con 1.5 hrs de comida - Modalidad:
100% remoto - Sueldo:
6000 a 6500 USD mensuales.
Si buscas un reto de alto impacto en ciencia de datos y quieres ser parte de un proyecto estratégico, nos encantaría conocerte
Científico/a de datos
Publicado hace 4 días
Trabajo visto
Descripción Del Trabajo
Propósito del puesto
Sumarse al equipo de Tecnología para impulsar proyectos de analítica avanzada e Inteligencia Artificial sobre el ecosistema Microsoft Azure y Fabric. El objetivo es transformar datos corporativos en valor estratégico, optimizando procesos y contribuyendo al gobierno de datos de la organización.
Responsabilidades principales- Diseñar, entrenar y validar modelos de machine learning y deep learning en entornos Azure Machine Learning y Fabric.
- Desarrollar pipelines de datos y procesos ETL/ELT en Azure Data Factory y Fabric Data Pipelines, asegurando calidad, disponibilidad y trazabilidad.
- Implementar soluciones de MLOps en Azure: registro de modelos, automatización de despliegues y monitoreo en producción.
- Integrar fuentes de datos estructurados y no estructurados en Azure Data Lake Gen2/OneLake, aplicando principios de gobierno con Microsoft Purview.
- Explorar tendencias emergentes en IA (NLP, visión por computadora, modelos generativos, reinforcement learning) y proponer su aplicabilidad al negocio.
- Colaborar con equipos multidisciplinarios para traducir necesidades en soluciones data-driven.
- Presentar resultados y hallazgos de manera clara a stakeholders técnicos y de negocio.
- Documentar desarrollos, procesos y mejores prácticas para favorecer la reutilización y escalabilidad.
- Lenguajes: Python, .NET, Java
- Frameworks: scikit-learn, TensorFlow, PyTorch, Keras, XGBoost
- Data & Cloud: Azure Data Factory, Synapse, Data Lake Gen2/OneLake, Microsoft Fabric, Azure ML. (Excluyente)
- Gobierno de datos: Microsoft Purview.
- Bases de datos: SQL, NoSQL y entornos distribuidos (Spark).
- Visualización: Power BI (Excluyente).
- Integración con SAP Datasphere para escenarios de analítica corporativa. (deseable)
- Conocimientos en OpenAI, Copilot Studio.
- Pensamiento creativo e innovador.
- Orientación a resultados y foco en impacto de negocio.
- Capacidad de comunicar hallazgos complejos de forma clara.
- Trabajo colaborativo en equipos multidisciplinarios.
- Curiosidad y aprendizaje continuo de nuevas tendencias tecnológicas.
- 2-4 años en roles de ciencia de datos o IA.
- Experiencia probada en la puesta en producción de modelos (MLOps) dentro de entornos cloud (Azure preferentemente).
- Participación en proyectos de innovación tecnológica y analítica avanzada.
- Estudios en Ciencias de la Computación, Ingeniería, Matemática, Estadística, Física o afines.
- Certificaciones en Data Science, IA o Big Data (deseable).
Científico/a de Datos y RPA
Hoy
Trabajo visto
Descripción Del Trabajo
Estamos en la búsqueda de un
Científico/a de Datos con foco en Automatización RPA
para sumarse al equipo de Transformación Digital.
Requisitos:
- Universitario completo en Ciencia de Datos, Ingeniería en Sistemas, Estadística, Matemática o afines.
- Se valorarán posgrados o especializaciones en análisis de datos, desarrollo o automatización.
- Experiencia trabajando en entornos cloud, preferentemente en el ecosistema
Microsoft Azure
. - Experiencia en RPA de al menos 2 años con herramientas como
Power Automate y n8n
. - Buen dominio de
Python
orientado a análisis de datos y/o automatización. - Conocimiento y experiencia en el uso de APIs de modelos de lenguaje como
ChatGPT (OpenAI)
,
Gemini (Google)
u otros
LLMs
, incluyendo tareas de integración, prompt engineering y orquestación de flujos.
Beneficios:
- Obra Social para el colaborador y su grupo familiar
- Estacionamiento
- Servicio de Chárter
- Gimnasio
- Canchas de pádel
- Comedor
- Código de refrigerios
- Lactario
- Descuentos
- 21 días corridos de vacaciones a partir de los 6 meses de antigüedad
Valoramos perfiles proactivos, con un excelente manejo de relaciones interpersonales, buena predisposición y capacidad para trabajar en equipo.
Lugar de Trabajo
: Olivos, Vicente López
Modalidad
: presencial
Horario
: lunes a viernes de 8 a 17.30 hs con 2 días de trabajo remoto.
Pasantía - Análisis de datos
Hoy
Trabajo visto
Descripción Del Trabajo
Sumate a Federal Bursátil
En Federal Bursátil, una ALyC con más de 30 años de experiencia en el mercado de capitales argentino, trabajamos para acercar a personas y empresas soluciones de inversión seguras, simples y eficientes. Nuestro crecimiento se apoya en la innovación, el profesionalismo y la confianza de nuestros clientes.
Hoy queremos seguir ampliando nuestro equipo y estamos buscando
un/a Pasante de Análisis de Datos y Back Office
para incorporarse a nuestra oficina en Buenos Aires.
¿Qué vas a hacer?
- Colaborar en el análisis y procesamiento de datos de operaciones.
- Dar soporte al área de back office en tareas de control y conciliación.
- Participar en la organización y mejora de reportes internos.
- Aprender sobre el funcionamiento de los mercados de capitales y la operatoria diaria de una ALyC.
- Aplicar y comprender algoritmos para optimizar procesos y análisis de datos.
Requisitos:
- Estudiante avanzado/a de Ciencias Exactas e Ingeniería.
- Interés en análisis de datos y procesos.
- Manejo de Excel (se valorará conocimiento de herramientas de programación o bases de datos).
- Proactividad, atención al detalle y ganas de aprender.
Modalidad de pasantía:
- Presencial, en nuestra oficina en CABA microcentro.
- 3 veces por semana de 10:00 a 17:30 hs.
- Pasantía remunerada.
Te ofrecemos:
- Acompañamiento y formación en back office y mercado de capitales.
- Experiencia práctica en una ALyC con trayectoria en el sector.
- Un entorno de trabajo dinámico y colaborativo.
Postulación
Si cumplís con los requisitos y te interesa formar parte de un equipo, te invitamos a postularte.
Sé el primero en saberlo
Acerca de lo último Científico de datos Empleos en Argentina !
Pasante de Análisis de Datos
Hoy
Trabajo visto
Descripción Del Trabajo
Nos encontramos en la búsqueda de un pasante que cuente con conocimientos de Programación y Análisis de Datos.
**Requisitos**:
Estudiante de las carreras de Ingreniería, Sistemas, Ciencia de Datos o similares.
Ingeniero/ Ingeniera en Análisis de Datos
Hoy
Trabajo visto
Descripción Del Trabajo
En Mercado Libre estamos democratizando el comercio y los servicios financieros para transformar la vida de las personas de América Latina. Sumate a este propósito
Imagínate emprendiendo proyectos desafiantes, dinámicos e innovadores y
siendo responsable de:
- Analizar y diagnosticar Data Products como tablas, dashboards, métricas, modelos, con el objetivo de diseñar e implementar iniciativas que mejoren su calidad, integridad, y discoverability.
- Diseñar y escalar soluciones para el delivery de oportunidades de mejora en todo Mercado Libre, asegurando que los equipos reciban insights accionables sobre la salud, eficiencia y gobernanza de sus activos.
- Definir y ejecutar procesos de lifecycle management junto a los equipos propietarios de las distintas plataformas como BigQuery, Data Flow, Looker, Tableau, entre otras, incluyendo acciones de depuración, metadata enrichment, ownership update y catalogación.
- Desarrollar y mantener workflows en la plataforma, incluyendo la creación de APIs que habiliten el consumo y exposición de información crítica para otros equipos.
- Definir y escalar procesos de linaje y criticidad, asegurando una trazabilidad completa de los activos de datos y evaluando su relevancia en los flujos de decisión y operación del negocio.
- Diseñar mecanismos para medir el Business Impact Analysis de los Data Products, evaluando su relevancia y contribución al negocio desde una mirada técnica y financiera.
Requisitos:
- Contar con experiencia trabajando en proyectos con SQL y Python-
- Tener experiencia trabajando en herramientas con GEN AI.
- Contar con conocimientos sobre arquitecturas y pipelines de integración: APIs, procesos.
- Residir en cualquier localidad cercana a nuestros sites: Buenos Aires
Tecnología es la esencia de nuestro producto. Nuestros equipos de desarrollo, arquitectura, base de datos, user experience, seguridad informática y data & analytics co-crean y son responsables de la plataforma líder de e-commerce de América Latina y de uno de los sitios de mayor tráfico del mundo. En una industria que se reinventa día a día, nuestros equipos son reconocidos por su visión y liderazgo. Desde aplicaciones móviles a machine learning, nuestra innovación tiene un claro foco: simplificarle la vida a quien utiliza nuestros productos.
Te proponemos:
- Ser parte de una compañía con espíritu emprendedor en la que nos encanta pensar en grande y a largo plazo.
- Ser protagonista de tu desarrollo en un ambiente de oportunidades, aprendizaje, crecimiento, expansión y proyectos desafiantes.
- Compartir y aprender en equipo junto a grandes profesionales y especialistas.
- Un excelente clima de trabajo, con todo lo necesario para que vivas una gran experiencia. :)
Ingeniero/ Ingeniera en Análisis de Datos
Hoy
Trabajo visto
Descripción Del Trabajo
En Mercado Libre estamos democratizando el comercio y los servicios financieros para transformar la vida de las personas de América Latina. Sumate a este propósito
Imagínate emprendiendo proyectos desafiantes, dinámicos e innovadores y siendo responsable de:
- Analizar y diagnosticar Data Products como tablas, dashboards, métricas, modelos, con el objetivo de diseñar e implementar iniciativas que mejoren su calidad, integridad, y discoverability.
- Diseñar y escalar soluciones para el delivery de oportunidades de mejora en todo Mercado Libre, asegurando que los equipos reciban insights accionables sobre la salud, eficiencia y gobernanza de sus activos.
- Definir y ejecutar procesos de lifecycle management junto a los equipos propietarios de las distintas plataformas como BigQuery, Data Flow, Looker, Tableau, entre otras, incluyendo acciones de depuración, metadata enrichment, ownership update y catalogación.
- Desarrollar y mantener workflows en la plataforma, incluyendo la creación de APIs que habiliten el consumo y exposición de información crítica para otros equipos.
- Definir y escalar procesos de linaje y criticidad, asegurando una trazabilidad completa de los activos de datos y evaluando su relevancia en los flujos de decisión y operación del negocio.
- Diseñar mecanismos para medir el Business Impact Analysis de los Data Products, evaluando su relevancia y contribución al negocio desde una mirada técnica y financiera.
Requisitos:
- Contar con experiencia trabajando en proyectos con SQL y Python-
- Tener experiencia trabajando en herramientas con GEN AI.
- Contar con conocimientos sobre arquitecturas y pipelines de integración: APIs, procesos.
- Residir en cualquier localidad cercana a nuestros sites: Buenos Aires
Tecnología es la esencia de nuestro producto. Nuestros equipos de desarrollo, arquitectura, base de datos, user experience, seguridad informática y data & analytics co-crean y son responsables de la plataforma líder de e-commerce de América Latina y de uno de los sitios de mayor tráfico del mundo. En una industria que se reinventa día a día, nuestros equipos son reconocidos por su visión y liderazgo. Desde aplicaciones móviles a machine learning, nuestra innovación tiene un claro foco: simplificarle la vida a quien utiliza nuestros productos.
Te proponemos:
- Ser parte de una compañía con espíritu emprendedor en la que nos encanta pensar en grande y a largo plazo.
- Ser protagonista de tu desarrollo en un ambiente de oportunidades, aprendizaje, crecimiento, expansión y proyectos desafiantes.
- Compartir y aprender en equipo junto a grandes profesionales y especialistas.
- Un excelente clima de trabajo, con todo lo necesario para que vivas una gran experiencia. :)