79 Ofertas de Arquitecto de Datos en Argentina
Arquitecto de datos
Hoy
Trabajo visto
Descripción Del Trabajo
Nuestro equipo de especialistas en el segmento de IT - selecciona para BYMA, Arquitecto de Datos.
Nos orientamos a un profesional de Sistemas con experiencia mínima de 2 años habiendo ocupado roles similares.
Será importante contar con conocimiento en áreas de Seguridad, Gobierno de datos, Diseño e Integración de Datos y AWS.
Será de gran valor contar con buenas habilidades de comunicación, autonomía, trabajo en equipo y proactividad.
Es una excelente oportunidad para pertenecer a una empresa que brinda posibilidades de crecimiento, dentro de un entorno profesional y de transformación, que ofrece interesantes desafíos y proyección de carrera
Arquitecto de datos
Hoy
Trabajo visto
Descripción Del Trabajo
Somos
BigCheese AWS Partner Premier
con 10 años de experiencia en mercados de servicios financieros, logística, salud y entretenimiento en
Uruguay, Perú, Argentina, Colombia y Ecuador
. Contamos con +500 proyectos lanzados en AWS, facilitando mejoras notables en sectores como Educación, Entretenimiento, Logística, Salud, Sector Público y Financiero mediante DevOps & SRE, AWS Cloud, GIS, Migration & Modernization, Optimization, Governance, IA/ML Data, y Development.
Queremos incorporar a nuestro talentoso equipo un
Arquitecto de Datos Senior
con ganas de desempeñar un rol clave en un ambiente que apuesta al crecimiento y al trabajo colaborativo.
Rol y Responsabilidades
Tu misión será diseñar, construir, mantener y optimizar sistemas y arquitecturas de datos, centrados en desarrollar infraestructuras y pipelines escalables que permitan la recolección, almacenamiento, procesamiento y análisis eficientes de grandes volúmenes de datos, para ello:
- Diseñar, construir y mantener arquitecturas de datos modernas, seguras, escalables y basadas en AWS (Data Lakes, Data Warehouses, Data Mesh)
- Liderar técnicamente proyectos de datos end-to-end, desde la conceptualización hasta la entrega
- Coordinar y colaborar con equipos multidisciplinarios: ingenieros, analistas, científicos de datos, DevOps actuado como
líder de proyecto - Desarrollar propuestas técnicas en procesos de preventa, detallando soluciones basadas en servicios AWS
- Implementar prácticas de Data Governance siguiendo marcos como DAMA-DMBOK, WAF, y otros estándares de calidad y seguridad
- Diseñar e implementar soluciones que permitan automatizar pipelines de datos mediante herramientas modernas de orquestación (e.g., AWS Step Functions, Airflow) e infraestructura como código IaC como Terraform o Cloudformation.
- Asegurar el cumplimiento de las buenas prácticas de arquitectura y la integración con políticas de seguridad y compliance de los clientes.
Requerimientos técnicos
- Estudios de grado en Informática, Ingeniería, Matemática o carreras afines.
- +6 años de experiencia profesional en general.
- +3 años de experiencia específica como arquitecto/a de datos liderando iniciativas en AWS.
- Experiencia implementando al menos dos proyectos de arquitectura de datos a gran escala en AWS (Data Lake, DWH, Data Mesh, etc.).
- Experiencia comprobable en DevOps y MLOps
- Participación activa en procesos de preventa técnica, incluyendo la redacción de propuestas y presentaciones a clientes.
- Experiencia en aplicación de políticas de Gobernanza de datos: calidad, catalogación, seguridad, linaje, etc.
Conocimientos técnicos
- Experiencia con Apache Spark / AWS Glue para procesamiento distribuido
- Conocimiento de herramientas Big Data: EMR, Hadoop, Cloudera
- Mantenimiento de clusters e infraestructura Hadoop
- Dominio de Python para manipulación y análisis de datos (pandas, numpy, scikit-learn, etc.).
- Dominio de Bash y/o terminales y administración de servidores
- Dominio en Kubernetes ya sea EKS u otas variantes
- Conocimiento en herramientas de notebooks como Jupyter / Colab.
- Experiencia con Redshift u otros DWH modernos.
- Certificaciones AWS (ej. AWS Certified Data Analytics – Specialty, Solutions Architect – Associate/Professional) serán altamente valoradas.
Más allá de lo técnico, buscamos que poseas…
- Pensamiento crítico y orientación a la resolución de problemas.
- Capacidad para liderar y trabajar de forma autónoma.
- Excelentes habilidades de comunicación (oral y escrita).
- Proactividad, empuje por la mejora continua y vocación colaborativa.
- Capacidad para adaptarse a entornos dinámicos y multiculturalidad (Uruguay, Argentina, Perú, Colombia).
Condiciones de trabajo
- Trabajo 100% remoto desde Argentina
- Modalidad tipo Contractor - Full Time
- Pago en dólares
- Contrato directo con BigCheese
Chequea los beneficios que brindamos
- 20 días hábiles de vacaciones y feriados pagados por año.
- Te brindamos tu equipo tecnológico
- Eventos de integración
- Programa de referidos
- Clases de inglés básico y avanzado
- Regalos corporativos por días especiales
- Oportunidad de crecimiento profesional en proyectos retadores
Forma parte del equipo de BigCheese en Argentina
Arquitecto de Datos
Hoy
Trabajo visto
Descripción Del Trabajo
En IVCISA buscamos un/a Arquitecto/a con experiencia en el análisis y modelado de datos, capaz de transformar grandes volúmenes de información en soluciones de valor para la toma de decisiones estratégicas. La persona seleccionada participará en el desarrollo de modelos de
Machine Learning
, generación de insights y despliegue de soluciones en entornos productivos, garantizando innovación y eficiencia en proyectos de analítica avanzada.
Responsabilidades
- Análisis, procesamiento y limpieza de grandes volúmenes de datos estructurados y no estructurados.
- Desarrollo de modelos de Machine Learning y algoritmos de predicción.
- Implementación de soluciones de analítica avanzada y generación de insights para clientes.
- Integración de modelos en entornos productivos en colaboración con el equipo de ingeniería.
- Elaboración de reportes y visualizaciones de resultados para stakeholders técnicos y de negocio.
Requisitos
- 3 a 5 Años de experiencia proyectos de ciencia de datos
- Lenguajes de programación: Python y/o R.
- Machine Learning & AI: scikit-learn, TensorFlow, PyTorch.
- Manejo de datos: pandas, NumPy, SQL (MySQL, PostgreSQL).
- Herramientas de visualización: Power BI, Tableau o similares.
- Big Data & procesamiento distribuido: Spark, Hadoop.
- Entornos de nube (preferiblemente AWS): S3, SageMaker, Redshift.
- MLOps y CI/CD: despliegue y mantenimiento de modelos.
- Gestión de Data Lakes y arquitecturas de datos.
Ubicación:
Buenos Aires, Argentina
Modalidad:
Trabajo desde casa
Contrato:
A término indefinido
Salario:
USD 1,300 a 1,600 mensuales
Arquitecto de Datos IA
Hoy
Trabajo visto
Descripción Del Trabajo
En CDA somos socios estratégicos de nuestros clientes y nos destacamos en el mercado por nuestra experiencia en el desarrollo de soluciones de alto impacto.
Buscamos un/a
Arquitecto de Datos IA
para definir y guiar la evolución tecnológica de soluciones de Inteligencia Artificial en el
sector bancario
.
¿Qué vas a hacer?
- Definir y diseñar arquitecturas de IA escalables, seguras y alineadas con los objetivos del negocio.
- Actuar como referente técnico y mentor/a, impulsando buenas prácticas y guiando a los equipos en el uso de plataformas de IA.
- Colaborar estrechamente con equipos de ciencia de datos, ingeniería, producto y seguridad.
- Combinar modelos de lenguaje (LLM) con herramientas de integración y procesamiento de datos.
- Integrar plataformas y sistemas mediante APIs, Webhooks y otras soluciones de conectividad.
- Diseñar y evolucionar arquitecturas modernas (microservicios, contenedores, orquestación).
¿Qué necesitamos de vos?
- Experiencia comprobada de al menos 5 años en arquitectura de software, con un mínimo de 3 años liderando soluciones de IA o ML.
- Experiencia en diseño de plataformas internas orientadas a desarrolladores, con foco en usabilidad, escalabilidad y abstracción tecnológica.
- Habilidades de liderazgo, comunicación y colaboración interdisciplinaria.
- Experiencia en entornos cloud (AWS, Azure o GCP), especialmente en servicios orientados a datos e inteligencia artificial.
- Conocimientos en prácticas de DevOps y MLOps.
- Experiencia en diseño e implementación de modelos de machine learning e inteligencia artificial generativa, idealmente con herramientas como SageMaker, Vertex AI, Azure ML, OpenAI o similares. (Deseable)
- Experiencia en arquitecturas de LLMs o IA generativa. (Deseable)
- Certificaciones en arquitectura cloud o IA. (Deseable)
- Formación en Ingeniería, Ciencias de la Computación o campos afines. Posgrado en IA o Data Science (deseable).
¿Qué te ofrecemos?
- Prepaga para vos y tu grupo familiar
- Programa de beneficios corporativo
Big Data Developer
Hoy
Trabajo visto
Descripción Del Trabajo
For the 4th consecutive year , Talan Spain has been recognized as a Great Place to Work ! This year, we’re also celebrating our 2nd certification in Poland , a significant milestone since opening our office there.
Talan is an international advisory group specializing in innovation and transformation through technology, with 5,000 employees and an annual turnover of 600M€.
We offer our customers a continuum of services to support them at each key stage of their organization's transformation, with four main activities:
- CONSULTING in Management and Innovation: Supporting business, managerial, cultural, and technological transformations.
- DATA & TECHNOLOGY: Implementing major transformation projects.
- CLOUD & APPLICATION SERVICES: Building or integrating software solutions.
- SERVICE CENTERS of EXCELLENCE: Providing technology, innovation, agility, sustainability of skills, and cost optimization.
Talan accelerates its clients' transformation through innovation and technology. By understanding their challenges and supporting them with technology, innovation, and data , we enable them to be more efficient and resilient.
Job DescriptionAs a Big Data Developer, you will participate in the Regulatory and Compliance technology team.
We need someone like you to help us in different fronts:
- Business application development (full software lifecycle: problem analysis, technical solution, solution design, development, testing and production upload).
- Communication with users to understand technological needs and provide strategic solutions.
- Code optimization and analysis: Threat modeling, exhaustive SAST, Sonar…
- Planning and execution of projects using Agile methodology.
- Managing the different internal tools to document ALM in all phases of the projects.
- Support for incidents, including planned interventions.
- Execution of unit, integrated and regression tests.
- Managing the tools to promote the releases.
- Bachelor's degree in Computer Science/Telecommunications, Mathematics or related studies.
- + 3 years experience as Big Data Developer.
- Fluent in Spanish and English.
SKILLS & KNOWLEDGE
- Github.
- Knowledge of different databases (Oracle -PLSQL, postgres.)
- ETL.
- Microservices (Spring Boot) – Openshift.
- Flink.
- Drools.
- Kafka.
- DevOps.
- Agile methodology and tools: Jira, Confluence,…
- Attitude of strategic ideas and innovation to face all times of situations.
- S3, Elastic and Angular.
- Business knowledge in the Transactional Regulatory Reporting area.
What do we offer you?
- Full-time contract.
- Smart Office Pack so that you can work comfortably from home.
- Training and career development.
- Benefits and perks such as private medical insurance , life insurance.
- Possibility to be part of a multicultural team and work on international projects.
- This is a hybrid position based in Málaga, Spain. Relocation is mandatory.
- Possibility to manage work-permits.
If you are passionate about development & tech, we want to meet you!
Talan Spain’s commitment to non-discrimination based on gender, race, ideology, or any other reason, in accordance with the company’s "Equality Plan" and the current regulations on gender equality between women and men (Royal Decree-Law 6/2019).
#J-18808-LjbffrBig Data Consultant
Hoy
Trabajo visto
Descripción Del Trabajo
Job Title: Big Data Engineer
Location – Remote (Argentina)
- Skilled Data Engineer to support secure data movement initiatives using MOVEit.
- The role involves designing and maintaining data pipelines, creating notebooks, and building reporting frameworks that ensure compliance, reliability, and performance across distributed environments.
- Strong experience with MOVEit or similar secure file transfer platforms (e.g., IBM Sterling).
- Proficiency in Python, SQL, and notebook-based development.
- Experience with Azure services (e.g., Azure Monitor, PostgreSQL, Logic Apps).
- Familiarity with containerized environments (Docker, Kubernetes).
- Understanding of data governance, compliance, and audit frameworks.
- Experience with CI/CD pipelines and API integrations."
Big Data Consultant
Publicado hace 4 días
Trabajo visto
Descripción Del Trabajo
Job Overview
Job Title: Big Data Engineer
Location – Remote (Argentina)
- Skilled Data Engineer to support secure data movement initiatives using MOVEit.
- The role involves designing and maintaining data pipelines, creating notebooks, and building reporting frameworks that ensure compliance, reliability, and performance across distributed environments.
- Strong experience with MOVEit or similar secure file transfer platforms (e.g., IBM Sterling).
- Proficiency in Python, SQL, and notebook-based development.
- Experience with Azure services (e.g., Azure Monitor, PostgreSQL, Logic Apps).
- Familiarity with containerized environments (Docker, Kubernetes).
- Understanding of data governance, compliance, and audit frameworks.
- Experience with CI/CD pipelines and API integrations.
- Mid-Senior level
- Full-time
- Information Technology
- IT Services and IT Consulting
Sé el primero en saberlo
Acerca de lo último Arquitecto de datos Empleos en Argentina !
Big Data Consultant
Publicado hace 4 días
Trabajo visto
Descripción Del Trabajo
Job Overview
Job Title: Big Data Engineer
Location – Remote (Argentina)
- Skilled Data Engineer to support secure data movement initiatives using MOVEit.
- The role involves designing and maintaining data pipelines, creating notebooks, and building reporting frameworks that ensure compliance, reliability, and performance across distributed environments.
- Strong experience with MOVEit or similar secure file transfer platforms (e.g., IBM Sterling).
- Proficiency in Python, SQL, and notebook-based development.
- Experience with Azure services (e.g., Azure Monitor, PostgreSQL, Logic Apps).
- Familiarity with containerized environments (Docker, Kubernetes).
- Understanding of data governance, compliance, and audit frameworks.
- Experience with CI/CD pipelines and API integrations.
- Mid-Senior level
- Full-time
- Information Technology
- IT Services and IT Consulting
Big Data Consultant
Publicado hace 7 días
Trabajo visto
Descripción Del Trabajo
Job Overview
Job Title: Big Data Engineer
Location – Remote (Argentina)
- Skilled Data Engineer to support secure data movement initiatives using MOVEit.
- The role involves designing and maintaining data pipelines, creating notebooks, and building reporting frameworks that ensure compliance, reliability, and performance across distributed environments.
- Strong experience with MOVEit or similar secure file transfer platforms (e.g., IBM Sterling).
- Proficiency in Python, SQL, and notebook-based development.
- Experience with Azure services (e.g., Azure Monitor, PostgreSQL, Logic Apps).
- Familiarity with containerized environments (Docker, Kubernetes).
- Understanding of data governance, compliance, and audit frameworks.
- Experience with CI/CD pipelines and API integrations.
- Mid-Senior level
- Full-time
- Information Technology
- IT Services and IT Consulting
Big Data Consultant
Publicado hace 7 días
Trabajo visto
Descripción Del Trabajo
Job Overview
Job Title: Big Data Engineer
Location – Remote (Argentina)
- Skilled Data Engineer to support secure data movement initiatives using MOVEit.
- The role involves designing and maintaining data pipelines, creating notebooks, and building reporting frameworks that ensure compliance, reliability, and performance across distributed environments.
- Strong experience with MOVEit or similar secure file transfer platforms (e.g., IBM Sterling).
- Proficiency in Python, SQL, and notebook-based development.
- Experience with Azure services (e.g., Azure Monitor, PostgreSQL, Logic Apps).
- Familiarity with containerized environments (Docker, Kubernetes).
- Understanding of data governance, compliance, and audit frameworks.
- Experience with CI/CD pipelines and API integrations.
- Mid-Senior level
- Full-time
- Information Technology
- IT Services and IT Consulting